JP6085626B2 - Transfer of 3D image data - Google Patents

Transfer of 3D image data Download PDF

Info

Publication number
JP6085626B2
JP6085626B2 JP2015021184A JP2015021184A JP6085626B2 JP 6085626 B2 JP6085626 B2 JP 6085626B2 JP 2015021184 A JP2015021184 A JP 2015021184A JP 2015021184 A JP2015021184 A JP 2015021184A JP 6085626 B2 JP6085626 B2 JP 6085626B2
Authority
JP
Japan
Prior art keywords
frame
video
multiplexing
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015021184A
Other languages
Japanese (ja)
Other versions
JP2015130680A (en
Inventor
タルストラ ヨハン シー
ヨハン シー タルストラ
デル ヘイデン ヒェラルドゥス ダブリュ ティー ファン
デル ヘイデン ヒェラルドゥス ダブリュ ティー ファン
フィリップ エス ニュートン
フィリップ エス ニュートン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2015130680A publication Critical patent/JP2015130680A/en
Application granted granted Critical
Publication of JP6085626B2 publication Critical patent/JP6085626B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は三次元[3D]画像データを3D表示装置に転送するための3D表示信号を伝送する方法に関し、3D表示信号は、3Dビデオ転送フォーマットに従って3D画像データを構成するフレームのシーケンスを有し、フレームのシーケンスはユニットを有し、各々のユニットはビデオ情報を有するフレームに対応し、ビデオ情報は、三次元画像として合成され表示されることが意図される。   The present invention relates to a method for transmitting a 3D display signal for transferring 3D [3D] image data to a 3D display device, the 3D display signal having a sequence of frames constituting 3D image data according to a 3D video transfer format. The sequence of frames has units, each unit corresponding to a frame with video information, which is intended to be synthesized and displayed as a three-dimensional image.

本発明はさらに、上述の3Dソース装置、3D表示信号及び3D表示装置に関する。   The invention further relates to a 3D source device, a 3D display signal and a 3D display device as described above.

本発明は、3D表示装置での表示のために、高速デジタル・インタフェース、例えばHDMIを介して、三次元画像データ、例えば3Dビデオを転送する分野に関する。   The present invention relates to the field of transferring 3D image data, eg 3D video, via a high-speed digital interface, eg HDMI, for display on a 3D display device.

2Dビデオ・データを供給する装置、例えば、デジタルビデオ信号を提供するDVDプレーヤーのようなビデオ・プレーヤー又はセットトップボックスが知られている。ソース装置は、TVセット又はモニタのような表示装置に結合される。画像データは、ソース装置から適切なインタフェース(好ましくはHDMIのような高速デジタル・インタフェース)を介して転送される。現在、三次元(3D)画像データを供給する3D拡張装置が提案されている。同様に、3D画像データを表示する装置が提案されている。ソース装置から表示装置へ3Dビデオ信号を転送するために、例えば既存のHDMI規格に基づいて互換性がある新たな高データ速度デジタル・インタフェース規格が開発されている。通常2Dデジタル画像信号を表示装置へ転送することは、フレーム毎にビデオ・ピクセル・データを送信することを必要とし、そのフレームは順次表示されることになっている。そのようなフレームは、プログレッシブ・ビデオ信号(フルフレーム)のビデオ・フレームを表すか、又は、(周知のライン・インターレースに基づき、あるフレームが奇数ラインを提供し、次のフレームが、シーケンシャルに表示されるための偶数ラインを提供する)インタレース・ビデオ信号のビデオ・フレームを表す場合がある。   Devices for supplying 2D video data are known, for example video players or set top boxes such as DVD players that provide digital video signals. The source device is coupled to a display device such as a TV set or monitor. Image data is transferred from the source device via an appropriate interface (preferably a high speed digital interface such as HDMI). Currently, 3D expansion devices that supply three-dimensional (3D) image data have been proposed. Similarly, an apparatus for displaying 3D image data has been proposed. In order to transfer 3D video signals from a source device to a display device, a new high data rate digital interface standard that is compatible, for example, based on the existing HDMI standard, has been developed. Usually, transferring a 2D digital image signal to a display device requires transmitting video pixel data for each frame, and the frames are to be displayed sequentially. Such a frame represents a video frame of a progressive video signal (full frame) or (based on the well-known line interlace, one frame provides odd lines and the next frame is displayed sequentially) May represent a video frame of an interlaced video signal (providing even lines to be played).

文献US 4,979,033は、インタレース・フォーマットを持つ従来のビデオ信号の例を説明する。従来の信号は、奇数及び偶数のフレームのライン及びフレームを従来のテレビに表示するための水平及び垂直同期信号を含む。シャッタ眼鏡を用いるディスプレイとの立体視ビデオの同期を可能にする立体視ビデオ・システム及び方法が提案されている。奇数及び偶数のフレームは、立体視ビデオ信号のそれぞれ左及び右の画像を転送するために用いられる。提案された3D表示装置は、従来の奇数/偶数フレームを検出するために従来の包絡線検出器を有するが、その代わりに左及び右の液晶ディスプレイ・ユニットのための表示信号を生成する。特に、従来のインタレース・アナログ・ビデオ信号では奇数及び偶数のフレームで異なる垂直ブランキング間隔の間に発生する等化パルスは、それぞれ左又は右のフィールドを識別するためにカウントされる。システムはシャッタ眼鏡を同期させるためにこの情報を用いて、シャッタ眼鏡は、立体ビデオと同期して交互に開閉する。   Document US 4,979,033 describes an example of a conventional video signal having an interlace format. Conventional signals include horizontal and vertical sync signals for displaying lines and frames of odd and even frames on a conventional television. Stereoscopic video systems and methods have been proposed that allow synchronization of stereoscopic video with a display using shutter glasses. Odd and even frames are used to transfer the left and right images of the stereoscopic video signal, respectively. The proposed 3D display device has a conventional envelope detector to detect conventional odd / even frames, but instead generates display signals for the left and right liquid crystal display units. In particular, in conventional interlaced analog video signals, equalization pulses that occur during different vertical blanking intervals in odd and even frames are counted to identify the left or right field, respectively. The system uses this information to synchronize the shutter glasses and the shutter glasses open and close alternately in synchrony with the stereoscopic video.

立体画像がフォーマットされることができる多くの異なる態様が存在し、3D画像フォーマットと呼ばれる。いくつかのフォーマットは、立体情報をさらに伝達するために2Dチャネルを用いることに基づく。例えば、左及び右ビューは、インタレースされるか、又は左右や上下に配置されることができる。これらの方法は、立体情報を伝達するために、解像度を犠牲にする。他のオプションは色を犠牲にすることであり、このアプローチはアナグラフ・ステレオと呼ばれる。   There are many different ways in which stereoscopic images can be formatted, referred to as 3D image formats. Some formats are based on using 2D channels to further convey stereoscopic information. For example, the left and right views can be interlaced or placed side to side or up and down. These methods sacrifice resolution in order to convey stereoscopic information. The other option is to sacrifice color and this approach is called anagraph stereo.

ディスプレイに3D情報を伝送するための新たなフォーマットが開発されている。MPEGにおいて規格化されているようなMVDは、より大きいビュー・コーンのグラフィックス・オーバレイ(例えばBEDプレーヤー又はSTBにおけるメニュー又は字幕)がディスプレイに伝送されることを可能にするために、M個のビューのための{Video+Depth}を伝送することを要求する。   A new format has been developed to transmit 3D information to the display. MVD, as standardized in MPEG, allows M larger view cone graphics overlays (eg menus or subtitles in BED players or STBs) to be transmitted to the display. Requests transmission of {Video + Depth} for the view.

3Dビデオ信号を表示装置に転送するためのより柔軟かつ信頼性が高いシステムを提供することが本発明の目的である。   It is an object of the present invention to provide a more flexible and reliable system for transferring 3D video signals to a display device.

この目的のために、本発明の第1の態様によれば、冒頭の段落に記載の方法において、3Dビデオ・フォーマットは、情報フレーム・パケットを含む一連のパケットを用いて伝送されるオーディオ及び補助データが、データ・アイランド期間並びにアクティブ・ビデオのピクセルが伝送されるビデオ・データ期間を有し、3D表示信号を出力し、3D表示装置において、3D表示信号を受信し、3Dディスプレイで3D画像データをレンダリングするための表示制御信号を生成するために3D表示信号を処理し、フレームのシーケンスはユニットを有し、ユニットは垂直同期信号から次の垂直同期信号までの期間であり、各ユニットは、多重化スキームに従って配置される複数のフレームに対応し、前記複数のフレームは、三次元画像として合成され表示されることが意図されるビデオ情報を有し、ユニット中の各フレームは、デジタル画像ピクセル・データのシーケンスを表すためのデータ構造を持ち、各フレーム・タイプは部分的3Dデータ構造を表し、当該方法は、3Dソース装置において、補助情報フレーム・パケット中に3D転送情報を含めて、3D転送情報は、3D表示信号中に1つの三次元画像として構成されるべきユニット中のビデオ・フレームの数を含む多重化スキームに関する情報を少なくとも有し、多重化スキームは、少なくともフレーム交互多重化を含む多重化スキームのグループから選択され、フレーム交互とは、前記複数のフレームが前記ビデオ・データ期間内にシーケンシャルに配置されることを示し、表示制御信号を生成することは、3D転送情報に依存して実行される。   To this end, according to a first aspect of the present invention, in the method described in the opening paragraph, the 3D video format is an audio and auxiliary transmission carried using a series of packets including information frame packets. The data has a data island period as well as a video data period during which active video pixels are transmitted, outputs a 3D display signal, receives a 3D display signal in a 3D display device, and 3D image data on a 3D display Process the 3D display signal to generate the display control signal for rendering, the sequence of frames has units, the unit is the period from the vertical synchronization signal to the next vertical synchronization signal, each unit is Corresponding to a plurality of frames arranged according to a multiplexing scheme, the plurality of frames are combined and displayed as a three-dimensional image Each frame in the unit has a data structure for representing a sequence of digital image pixel data, each frame type represents a partial 3D data structure, and the method includes: In the 3D source device, including the 3D transfer information in the auxiliary information frame packet, the 3D transfer information includes the number of video frames in the unit to be configured as one 3D image in the 3D display signal. Having at least information about a multiplexing scheme, wherein the multiplexing scheme is selected from a group of multiplexing schemes including at least frame alternating multiplexing, wherein frame alternating means that the plurality of frames are sequentially within the video data period. The generation of the display control signal indicating the arrangement is performed depending on the 3D transfer information.

この目的のために、本発明の第2の態様によれば、冒頭の段落に記載の3D画像データを3D表示装置に転送するための3Dソース装置であって、3Dソース装置は、3D表示信号を生成するためにソース画像データを処理するための生成手段であって、3D表示信号は3Dビデオ転送フォーマットに従って3D画像データを構成するフレームのシーケンスを有し、3Dビデオ・フォーマットは、情報フレーム・パケットを含む一連のパケットを用いてオーディオ及び補助データが伝送されるデータ・アイランド期間及びアクティブ・ビデオのピクセルが伝送されるビデオ・データ期間を有する生成手段、並びに、3D表示信号を出力するための出力インタフェース手段であって、各フレームはデジタル画像ピクセル・データのシーケンスを表すためのデータ構造を持ち、各フレーム・タイプは部分的3Dデータ構造を表し、フレームのシーケンスはユニットを有し、ユニットは垂直同期信号から次の垂直同期信号までの期間であり、各ユニットは多重化スキームに従って配置される複数のフレームに対応し、複数のフレームは三次元画像として合成され表示されることが意図されるビデオ情報を有する出力インタフェース手段を有し、出力インタフェース手段は、表示装置において3D転送情報に依存して表示制御信号を生成するために、補助情報フレーム・パケットにおいて前記3D転送情報を送信するように適応され、3D転送情報は、3D表示信号中に1つの三次元画像として構成されるべきユニット中のビデオ・フレームの数を含む多重化スキームに関する情報を少なくとも有し、多重化スキームは、少なくともフレーム交互多重化を含む多重化スキームのグループから選択され、フレーム交互とは、前記複数のフレームが前記ビデオ・データ期間内にシーケンシャルに配置されることを示す。   For this purpose, according to a second aspect of the present invention, there is provided a 3D source device for transferring the 3D image data described in the opening paragraph to a 3D display device, the 3D source device comprising: Generating means for processing source image data to generate a 3D display signal having a sequence of frames constituting 3D image data according to a 3D video transfer format, wherein the 3D video format is an information frame Generating means having a data island period in which audio and auxiliary data are transmitted using a series of packets including packets and a video data period in which active video pixels are transmitted, and for outputting a 3D display signal Output interface means, each frame having a data structure for representing a sequence of digital image pixel data; Each frame type represents a partial 3D data structure, the sequence of frames has units, the unit is the period from the vertical synchronization signal to the next vertical synchronization signal, and each unit is a plurality arranged according to the multiplexing scheme A plurality of frames having output interface means having video information intended to be synthesized and displayed as a three-dimensional image, the output interface means depending on the 3D transfer information in the display device Adapted to transmit the 3D transfer information in an auxiliary information frame packet to generate a display control signal, the 3D transfer information in a unit to be configured as one 3D image in the 3D display signal At least information about the multiplexing scheme including the number of video frames, the multiplexing scheme at least Is selected from the group of multiplexing schemes including over arm alternately multiplexing, the frame alternately, indicating that the plurality of frames are arranged sequentially in the video data within the period.

この目的のために、本発明のさらに別の態様では、冒頭の段落に記載の3D表示装置データであって、3D画像データを表示するための3Dディスプレイ、3D表示信号を受信するための入力インタフェース手段であって、3D表示信号は3Dビデオ転送フォーマットに従って3D画像データを構成するフレームを有し、3Dビデオ・フォーマットは情報フレーム・パケットを含む一連のパケットを用いてオーディオ及び補助データが伝送されるデータ・アイランド期間及びアクティブ・ビデオのピクセルが伝送されるビデオ・データ期間を有する入力インタフェース手段、並びに、3Dディスプレイで3D画像データをレンダリングするための表示制御信号を生成するための処理手段であって、各フレームはデジタル画像ピクセル・データのシーケンスを表すためのデータ構造を持ち、各フレーム・タイプは部分的3Dデータ構造を表し、フレームのシーケンスはユニットを有し、ユニットは垂直同期信号から次の垂直同期信号までの期間であり、各ユニットは多重化スキームに従って配置される複数のフレームに対応し、複数のフレームは三次元画像として合成され表示されることが意図されるビデオ情報を有する処理手段を有し、補助情報フレーム・パケット中の3D転送情報は、3D表示信号中に1つの三次元画像として構成されるべきユニット中のビデオ・フレームの数を含む多重化スキームに関する情報を少なくとも有し、多重化スキームは、少なくともフレーム交互多重化を含む多重化スキームのグループから選択され、フレーム交互とは、前記複数のフレームが前記ビデオ・データ期間内にシーケンシャルに配置されることを示し、処理手段は、3D転送情報に依存して表示制御信号を生成するために配置される。   To this end, in yet another aspect of the present invention, the 3D display device data described in the opening paragraph, a 3D display for displaying 3D image data, an input interface for receiving a 3D display signal Means, the 3D display signal has frames constituting 3D image data according to the 3D video transfer format, and the 3D video format transmits audio and auxiliary data using a series of packets including information frame packets Input interface means having a data island period and a video data period during which active video pixels are transmitted, and processing means for generating a display control signal for rendering 3D image data on a 3D display, Each frame is a data representation of a sequence of digital image pixel data. Each frame type represents a partial 3D data structure, the sequence of frames has units, the unit is the period from the vertical synchronization signal to the next vertical synchronization signal, each unit is a multiplexing scheme Corresponding to a plurality of frames arranged in accordance with, the plurality of frames have processing means having video information intended to be synthesized and displayed as a three-dimensional image, and the 3D transfer information in the auxiliary information frame packet is , Having at least information about a multiplexing scheme including the number of video frames in a unit to be configured as one three-dimensional image in a 3D display signal, the multiplexing scheme including at least frame alternating multiplexing Selected from a group of schemes, frame alternating means that the plurality of frames are sequenced within the video data period. The processing means is arranged to generate a display control signal depending on the 3D transfer information.

本発明はさらに以下の認識に基づく。2Dビデオ情報と異なり、3Dビデオ・データをフォーマットするための多くの可能性が存在し、例えば、ステレオ、画像+深さ(遮蔽及び透明度を含む場合がある)、複数のビューが存在する。さらに、表示前に合成するためにインタフェースを通じて複数の3Dビデオ・データ・レイヤが伝送される場合があることが想定される。この多くの選択肢は、ソース装置で利用可能なデータのフォーマット及びディスプレイによって受け入れられる3Dビデオ・フォーマットに応じて、多くのビデオ・フォーマット・オプションにつながる。大部分のこれらのフォーマットは、表示されるべき各々の3D画像のために転送されることを必要とする複雑な構造の大量の情報によって特徴づけられる。本発明によって、データがユニットとして送信され、ユニットに関する情報が3D表示信号において利用可能であるとき、より多くのデータがユニット中に含まれることができるので、伝送システムは、さまざまな3Dデータ・フォーマットを取り扱うことにより柔軟である。最新の高速インタフェースは、通常は映画撮影業界によって用いられる24Hzである3D画像の実際の周波数より非常に高い周波数でフレームを送信することを可能にする。フレームのユニットを用いることにより、各々の3D画像のための柔軟なフォーマットにおけるより大量のデータがインタフェースを通じて送信されることができる。   The present invention is further based on the following recognition. Unlike 2D video information, there are many possibilities for formatting 3D video data, such as stereo, image + depth (which may include occlusion and transparency), and multiple views. It is further envisioned that multiple 3D video data layers may be transmitted through the interface for composition before display. This many options lead to many video format options depending on the format of data available on the source device and the 3D video format accepted by the display. Most of these formats are characterized by a large amount of complex structured information that needs to be transferred for each 3D image to be displayed. According to the present invention, when data is transmitted as a unit and information about the unit is available in the 3D display signal, more data can be included in the unit so that the transmission system can be used in various 3D data formats. It is flexible by handling. Modern high-speed interfaces allow frames to be transmitted at a frequency much higher than the actual frequency of 3D images, typically 24 Hz, used by the cinematography industry. By using a unit of frames, a larger amount of data in a flexible format for each 3D image can be transmitted over the interface.

実施の形態において、多重化スキームのグループは、フィールド交互多重化、ライン交互多重化、サイド・バイ・サイド・フレーム多重化(サイド・バイ・サイド・フレーム多重化は、前記複数のフレームが前記ビデオ・データ期間内でサイド・バイ・サイドに配置されることを示す)、2D及び深さフレーム多重化、2D、深さ、グラフィックス及びグラフィックス深さフレーム多重化のうちの少なくとも1つをさらに有する。   In an embodiment, the group of multiplexing schemes includes field alternating multiplexing, line alternating multiplexing, side-by-side frame multiplexing (side-by-side frame multiplexing, wherein the plurality of frames are the video -Indicating that they are arranged side-by-side within the data period), at least one of 2D and depth frame multiplexing, 2D, depth, graphics and graphics depth frame multiplexing Have.

一般に、3Dビデオ・データの伝送は、
- ピクセル繰返し速度
- 1つの三次元画像のフレームのユニット中のフレームの数
- フォーマット(チャネルを多重化する態様)
の3つのパラメータによって特徴づけられることができる。
In general, transmission of 3D video data is
-Pixel repetition rate
-The number of frames in a unit of one 3D image frame
-Format (channel multiplexing mode)
Can be characterized by three parameters:

本発明の好ましい実施の形態において、全てのこれらのパラメータにわたる情報は、3D転送情報中に含まれる。最大の柔軟性のために、本発明によれば、これらは3つの別々のフィールドにおいて伝送されるべきである。   In the preferred embodiment of the present invention, information across all these parameters is included in the 3D transfer information. For maximum flexibility, according to the present invention, these should be transmitted in three separate fields.

本発明の実施の形態において、インタフェースとしてHDMIが用いられ、3D転送情報は、AVI情報フレーム及び/又はHDMI ベンダー独自(Vendor Specific)情報フレームにおいて送信される。最大の柔軟性を可能にする最も好ましい実施の形態において、3D転送情報は、別々の情報フレームにおいて送信される。   In the embodiment of the present invention, HDMI is used as an interface, and the 3D transfer information is transmitted in an AVI information frame and / or an HDMI vendor-specific information frame. In the most preferred embodiment that allows for maximum flexibility, the 3D transfer information is transmitted in separate information frames.

本発明による方法、3D装置及び信号の更なる好ましい実施の形態は、添付の請求の範囲において与えられ、その開示は本明細書に参照として組み込まれる。   Further preferred embodiments of the method, 3D device and signal according to the invention are given in the appended claims, the disclosure of which is incorporated herein by reference.

本発明のこれらの及び他の態様は、以下の記載において一例として説明される実施の形態及び添付の図面から明らかであり、それらを参照してさらに説明される。   These and other aspects of the invention will be apparent from and will be further elucidated with reference to the embodiments described by way of example in the following description and the accompanying drawings.

図面において、既に述べられた要素に対応する要素は同じ参照番号を持つ。   In the drawings, elements corresponding to elements already described have the same reference number.

三次元(3D)画像データを転送するシステム。A system that transfers three-dimensional (3D) image data. 3D画像データの例。An example of 3D image data. 再生装置及び表示装置の組み合わせを示す図。The figure which shows the combination of a reproducing | regenerating apparatus and a display apparatus. 2D+Stereo+DOTに対応する3D画像データのためのビデオ・インタフェイスを通じて送信されるフレームの可能なユニットを概略的に示す図。FIG. 2 schematically shows possible units of a frame transmitted through a video interface for 3D image data corresponding to 2D + Stereo + DOT. 2D+Stereo+DOTに対応する3D画像データのためのビデオ・インタフェイスを通じて送信されるフレームの可能なユニットの更なる詳細を概略的に示す図。FIG. 4 schematically shows further details of possible units of a frame transmitted through a video interface for 3D image data corresponding to 2D + Stereo + DOT. 2D+Stereo+ DOTに対応する3D画像データのためのビデオ・インタフェイス上のフレームの時間出力を概略的に示す図。The figure which shows schematically the time output of the flame | frame on the video interface for 3D image data corresponding to 2D + Stereo + DOT. ステレオ信号のためのフレーム配置の可能なユニットを概略的に示す図。The figure which shows schematically the unit in which the frame arrangement | positioning for a stereo signal is possible. 3D+DOTフォーマット@1920ピクセルのための水平及び垂直ブランキング及びシグナリングを示す図。FIG. 5 shows horizontal and vertical blanking and signaling for 3D + DOT format @ 1920 pixels. 1920プログレッシブ@30Hzとして送信される3D+DOTフォーマット720ピクセルのための水平及び垂直ブランキング及びシグナリングを示す図。FIG. 6 shows horizontal and vertical blanking and signaling for 3D + DOT format 720 pixels transmitted as 1920 progressive @ 30 Hz. ステレオ3D画像データのためのフレーム・タイプ同期インジケータによって拡張されるAVI情報フレームの表を示す図。FIG. 6 shows a table of AVI information frames extended by a frame type synchronization indicator for stereo 3D image data. 3Dビデオ・フォーマットの表を示す図。The figure which shows the table | surface of 3D video format. フレーム同期化信号を示す図。The figure which shows a frame synchronization signal. 補助ビデオ・レイヤのための値を示す図。FIG. 4 shows values for an auxiliary video layer.

図1は、ビデオ、グラフィックス又は他の視覚的情報のような三次元(3D)画像データを転送するシステムを示す。3Dソース装置10は、3D表示信号56を転送するために3D表示装置13に結合される。3Dソース装置は、画像情報を受信するための入力ユニット51を持つ。例えば、入力ユニット装置は、DVD又はBlu-Rayディスクのような光学記録担体54からさまざまなタイプの画像情報を読み出すための光学ディスク・ユニット58を含むことができる。別の態様では、入力ユニットは、ネットワーク55(例えばインターネット又は放送ネットワーク)に結合するためのネットワーク・インターフェース装置59を含むことができ、そのような装置は通常、セットトップボックスと呼ばれる。画像データは、遠隔メディア・サーバ57から読み出されることができる。ソース装置はさらに、衛星受信機、又は表示信号を直接提供するメディア・サーバ、すなわち、ディスプレイ・ユニットに直接結合される3D表示信号を出力する任意の適切な装置であることができる。   FIG. 1 shows a system for transferring three-dimensional (3D) image data, such as video, graphics or other visual information. The 3D source device 10 is coupled to the 3D display device 13 for transferring the 3D display signal 56. The 3D source device has an input unit 51 for receiving image information. For example, the input unit device may include an optical disc unit 58 for reading various types of image information from an optical record carrier 54 such as a DVD or Blu-Ray disc. In another aspect, the input unit can include a network interface device 59 for coupling to a network 55 (eg, the Internet or a broadcast network), such a device is commonly referred to as a set top box. Image data can be read from the remote media server 57. The source device can further be a satellite receiver, or a media server that directly provides the display signal, ie any suitable device that outputs a 3D display signal that is directly coupled to the display unit.

3Dソース装置は、表示装置に出力インタフェース装置12を介して転送されるべき3D表示信号56を生成するために画像情報を処理するための、入力ユニット51に結合される処理ユニット52を持つ。処理ユニット52は、表示装置13上での表示のための3D表示信号56中に含まれる画像データを生成するために配置される。ソース装置は、画像データの表示パラメータ(例えばコントラスト又は色パラメータ)を制御するためのユーザ制御素子15を備える。そのようなユーザ制御素子は周知であり、3Dソース装置のさまざまな機能(例えば再生及び記録機能)を制御するため、そして例えばグラフィカル・ユーザインタフェース及び/又はメニューを介して前記表示パラメータを設定するための、さまざまなボタン及び/又はカーソル制御機能を持つ遠隔制御ユニットを含むことができる。   The 3D source device has a processing unit 52 coupled to the input unit 51 for processing the image information to generate a 3D display signal 56 to be transferred via the output interface device 12 to the display device. The processing unit 52 is arranged to generate image data included in the 3D display signal 56 for display on the display device 13. The source device comprises a user control element 15 for controlling the display parameters (eg contrast or color parameters) of the image data. Such user control elements are well known, for controlling various functions (eg playback and recording functions) of the 3D source device and for setting the display parameters via eg a graphical user interface and / or menu. Remote control units with various buttons and / or cursor control functions.

ソース装置は、3D表示信号中に少なくとも1つのフレーム・タイプ同期インジケータを提供するための送信同期化ユニット11を持ち、そのインジケータは、出力インターフェースユニット12における3D表示信号中に含まれ、出力インターフェースユニット12はさらに、3D表示信号56としてソース装置から表示装置に画像データ及びフレーム・タイプ同期インジケータを有する3D表示信号を転送するように配置される。3D表示信号はフレームのシーケンスを有し、このフレームはフレームのグループとして組織され、それによって3Dビデオ転送フォーマットに従って3D画像データを構成し、このフォーマットにおいて、フレームは少なくとも2つの異なるフレーム・タイプを含む。各々のフレームは、デジタル画像ピクセル・データのシーケンスを表すためのデータ構造を持ち、通常、予め定められた解像度による複数のピクセルの水平ラインのシーケンスとして配置される。各々のフレーム・タイプは、部分的3Dデータ構造を表す。例えば、3Dビデオ転送フォーマットのフレーム・タイプにおける3D部分的データ構造は、左及び右画像若しくは2D画像及び補助深さであることができ、並びに/又は、以下に記載される遮蔽又は透明度情報のような更なる3Dデータであることができる。なお、フレーム・タイプはさらに、上記のフレーム・タイプのサブ・フレーム(例えば、1つのフル解像度フレーム中に位置する低い解像度を持つ4つのサブ・フレーム)の組み合わせを示す組み合わせフレーム・タイプであることもできる。さらに、複数のマルチ・ビュー画像が、同時に表示されるフレームのビデオ・ストリームに符号化されることができる。   The source device has a transmission synchronization unit 11 for providing at least one frame type synchronization indicator in the 3D display signal, which indicator is included in the 3D display signal in the output interface unit 12, 12 is further arranged to transfer a 3D display signal having image data and a frame type synchronization indicator from the source device to the display device as a 3D display signal 56. The 3D display signal has a sequence of frames, which are organized as a group of frames, thereby constituting 3D image data according to a 3D video transfer format, in which the frame comprises at least two different frame types . Each frame has a data structure for representing a sequence of digital image pixel data and is typically arranged as a sequence of horizontal lines of pixels with a predetermined resolution. Each frame type represents a partial 3D data structure. For example, the 3D partial data structure in the 3D video transfer format frame type can be left and right images or 2D images and auxiliary depth, and / or like the occlusion or transparency information described below. Can be further 3D data. Note that the frame type is a combination frame type that indicates a combination of sub-frames of the above-described frame type (for example, four sub-frames with low resolution located in one full-resolution frame). You can also. In addition, multiple multi-view images can be encoded into a video stream of simultaneously displayed frames.

ソース装置は、3D表示信号に1つの三次元画像として構成されるべきユニット中のビデオ・フレームの数に関する情報を少なくとも有する3D転送情報を含めるように適応される。これは、同期ユニット11に対応する機能を追加することによって達成されることができる。   The source device is adapted to include 3D transfer information having at least information on the number of video frames in the unit to be configured as one 3D image in the 3D display signal. This can be achieved by adding functions corresponding to the synchronization unit 11.

3D表示装置13は、3D画像データを表示するためにある。この装置は、ソース装置10から転送されるフレーム中の3D画像データ及びフレーム・タイプ同期インジケータを含む3D表示信号56を受信するための入力インタフェース装置14を持つ。各々のフレームはデジタル画像ピクセル・データのシーケンスを表すためのデータ構造を持ち、各々のフレーム・タイプは部分的3Dデータ構造を表す。表示装置は、ディスプレイの表示パラメータ(例えばコントラスト、色又は深さパラメータ)を設定するために、更なるユーザ制御素子16を備える。転送された画像データは、ユーザ制御素子からの設定コマンドに従って処理ユニット18において処理され、それぞれのフレーム・タイプに基づいて3Dディスプレイ上に3D画像データをレンダリングするための表示制御信号を生成する。装置は、処理された画像データを表示するための表示制御信号を受信する3Dディスプレイ17を持つ(例えばデュアルLCD)。表示装置13は、矢印44によって示される表示深さ範囲を持つ、3Dディスプレイとも呼ばれる立体視ディスプレイである。3D画像データの表示は、各々がそれぞれの部分的3D画像データ構造を提供するそれぞれのフレームに依存して実行される。   The 3D display device 13 is for displaying 3D image data. This device has an input interface device 14 for receiving a 3D display signal 56 including 3D image data in a frame transferred from the source device 10 and a frame type synchronization indicator. Each frame has a data structure for representing a sequence of digital image pixel data, and each frame type represents a partial 3D data structure. The display device comprises a further user control element 16 for setting the display parameters of the display (eg contrast, color or depth parameters). The transferred image data is processed in the processing unit 18 according to a setting command from the user control element, and generates a display control signal for rendering the 3D image data on the 3D display based on each frame type. The device has a 3D display 17 (for example a dual LCD) that receives display control signals for displaying the processed image data. The display device 13 is a stereoscopic display called a 3D display having a display depth range indicated by an arrow 44. The display of 3D image data is performed depending on the respective frame, each providing a respective partial 3D image data structure.

表示装置はさらに、3D表示信号からフレーム・タイプ同期インジケータを読み出すため及び受信された3D表示信号中のそれぞれのフレーム・タイプを検出するための処理ユニット18に結合される検出ユニット19を含む。処理ユニット18は、それぞれの3Dビデオ・フォーマットの部分的3Dデータ構造によって定められるような画像データのさまざまなタイプ(例えば2D画像及び深さフレーム)に基づいて表示制御信号を生成するために配置される。それぞれのフレームは、それぞれのフレーム・タイプ同期インジケータによって示されるように認識されて、時間同期される。   The display device further includes a detection unit 19 coupled to the processing unit 18 for reading the frame type synchronization indicator from the 3D display signal and detecting the respective frame type in the received 3D display signal. The processing unit 18 is arranged to generate display control signals based on various types of image data (eg 2D images and depth frames) as defined by the partial 3D data structure of the respective 3D video format. The Each frame is recognized and time synchronized as indicated by the respective frame type synchronization indicator.

表示装置は、3D表示信号において1つの三次元画像として構成されるユニット中のビデオ・フレームの数に関する情報を少なくとも有する3D転送情報を検出し、3D転送情報に依存して表示制御信号を生成するために3D転送情報を用いるように適応される。これは、例えば、3D転送情報を検出するように検出ユニット19を適応させることによって、及び、3D転送情報に依存して表示制御信号を生成するように処理手段(18)を適応させることによって、達成されることができる。   The display device detects 3D transfer information having at least information on the number of video frames in a unit configured as one 3D image in the 3D display signal, and generates a display control signal depending on the 3D transfer information It is adapted to use 3D transfer information. This can be achieved, for example, by adapting the detection unit 19 to detect 3D transfer information and by adapting the processing means (18) to generate a display control signal depending on the 3D transfer information, Can be achieved.

フレーム・タイプ同期インジケータは、フレームのうちのどれが同時に表示されるために組み合わせられるべきかを検出することを可能にし、さらに、それぞれの部分的3Dデータが読み出されて処理されることができるようにフレーム・タイプを示す。3D表示信号は、適切な高速デジタル・ビデオ・インタフェース(例えば周知のHDMIインタフェース)を通じて転送されることができる(例えば、"High Definition Multimedia Interface Specification Version 1.3a," Nov 10 2006参照)。   Frame type synchronization indicator allows to detect which of the frames should be combined to be displayed at the same time, and each partial 3D data can be read and processed As shown, the frame type. The 3D display signal can be transferred through a suitable high-speed digital video interface (eg, the well-known HDMI interface) (see, for example, “High Definition Multimedia Interface Specification Version 1.3a,” Nov 10 2006).

図1は、3D画像データの担体としての記録担体54をさらに示す。記録担体はディスク形状であり、トラック及び中央のホールを持つ。物理的に検出可能なマークの系列によって構成されるトラックは、情報レイヤ上に実質的に平行の軌道を構成するターンのらせん又は同心円パターンに従って配置される。記録担体は光学的に読取り可能であり、光学ディスクと呼ばれる(例えばCD、DVD又はBD(Blu-ray Disc))。情報は、トラックに沿った光学的に検出可能なマーク(例えばピット及びランド)によって情報レイヤ上に表される。トラック構造はさらに、情報のユニット(通常は情報ブロックと呼ばれる)の位置を示すための位置情報(例えばヘッダ及びアドレス)を有する。記録担体54は、例えば、DVD又はBDフォーマットのような事前に決められた記録フォーマットでMPEG2又はMPEG4符号化システムに従って符号化されたビデオのような、デジタル的に符号化された画像データを表す情報を担持する。   FIG. 1 further shows a record carrier 54 as a carrier for 3D image data. The record carrier is disc-shaped and has a track and a central hole. A track constituted by a sequence of physically detectable marks is arranged according to a spiral or concentric pattern of turns that constitutes a substantially parallel trajectory on the information layer. The record carrier is optically readable and is called an optical disc (eg CD, DVD or BD (Blu-ray Disc)). Information is represented on the information layer by optically detectable marks (eg, pits and lands) along the track. The track structure further includes position information (eg, header and address) to indicate the position of a unit of information (usually called an information block). The record carrier 54 is information representing digitally encoded image data, such as video encoded according to an MPEG2 or MPEG4 encoding system, for example, in a predetermined recording format such as DVD or BD format. Is carried.

なお、プレーヤーは、さまざまなフォーマットの再生をサポートすることができるが、ビデオ・フォーマットを変換することはできず、表示装置は、ビデオ・フォーマットの限られたセットを再生することが可能である場合がある。これは、何が再生されることが出来るかの共通のデバイダが存在することを意味する。なお、ディスク又はコンテンツに依存して、フォーマットは、システムの再生/動作の間に変化する場合がある。フォーマットのリアルタイム同期が行われることを必要とし、フォーマットのリアルタイム切り替えは、フレーム・タイプ同期インジケータによって提供される。   Note that the player can support playback of various formats, but cannot convert video formats and the display device can play a limited set of video formats There is. This means that there is a common divider for what can be played back. Note that depending on the disc or content, the format may change during playback / operation of the system. Requires real-time synchronization of the format, and real-time switching of the format is provided by a frame type synchronization indicator.

以下のセクションは、三次元ディスプレイの概要及び人による深さの知覚を提供する。より真に迫った深さの知覚を提供することができるという点で、3Dディスプレイは2Dディスプレイと異なる。これは、それらが単眼の深さ手がかり及び動作に基づく手がかりのみを示すことができる2Dディスプレイより多くの深さ手がかりを提供するので、達成される。   The following sections provide an overview of 3D displays and depth perception by humans. 3D displays differ from 2D displays in that they can provide a more perceived depth perception. This is achieved because they provide more depth cues than 2D displays that can only show monocular depth cues and motion based cues.

単眼の(又は静的な)深さ手がかりは、1つの目を用いて静止画像から得られることができる。画家は、絵の中に深さの感覚を生じさせるために、しばしば単眼の手がかりを用いる。これらの手がかりは、相対的なサイズ、地平線に対する高さ、遮蔽、距離感、テクスチャー勾配及びライティング/陰影を含む。動眼手がかり(Oculomotor cue)は、観察者の目の筋肉における緊張から導き出される深さ手がかりである。目は、目を回転させるため及び目のレンズを伸ばすための筋肉を持つ。目のレンズの緊張と緩和は適応と呼ばれ、画像に焦点を合わせるときに行われる。レンズ筋肉の緊張又は緩和の量は、物体がどれだけ離れているか又は近いかのための手掛かりを提供する。目の回転は、両方の目が同じ物体に焦点を合わせるように行われ、それは輻輳と呼ばれる。最後に、運動視差は、観察者の近くの物体が、離れた物体よりも速く移動するように見える効果である。   Monocular (or static) depth cues can be obtained from still images using one eye. Painters often use monocular cues to create a sense of depth in a picture. These cues include relative size, height relative to the horizon, occlusion, sense of distance, texture gradient and lighting / shading. An oculomotor cue is a depth cue derived from the strain in the observer's eye muscles. The eye has muscles to rotate the eye and stretch the eye lens. Tension and relaxation of the eye lens is called adaptation and is done when focusing on the image. The amount of lens muscle tension or relaxation provides a clue to how far away or near the object is. Eye rotation is done so that both eyes focus on the same object, which is called convergence. Finally, motion parallax is the effect that objects near the viewer appear to move faster than distant objects.

両眼視差は、両方の目が僅かに異なる画像を見ることから導き出される深さ手がかりである。単眼の深さ手がかりは、任意の2D画像表示タイプに用いられることができ、用いられている。ディスプレイにおいて両眼視差を再現することは、そのディスプレイが、各々の目がディスプレイ上で僅かに異なる画像を見るように、左目及び右目のためのビューを分けることができることを必要とする。両眼視差を再現することができるディスプレイは、3D又は立体視ディスプレイと呼ばれる特別なディスプレイである。3Dディスプレイは、人の目によって実際に知覚される深さ次元に沿って画像を表示することができ、本明細書において、表示深さ範囲を持つ3Dディスプレイと呼ばれる。それゆえに、3Dディスプレイは、左及び右目に異なるビューを提供する。   Binocular parallax is a depth cue derived from both eyes looking at slightly different images. Monocular depth cues can and are used for any 2D image display type. Reproducing binocular parallax on a display requires that the display be able to separate the views for the left and right eyes so that each eye sees a slightly different image on the display. A display capable of reproducing binocular parallax is a special display called a 3D or stereoscopic display. A 3D display can display an image along a depth dimension that is actually perceived by the human eye and is referred to herein as a 3D display with a display depth range. Therefore, 3D displays provide different views for the left and right eyes.

2つの異なるビューを提供することができる3Dディスプレイは長年存在している。それらの大部分は、左及び右目ビューを分離する眼鏡を用いることに基づいていた。今では、ディスプレイ技術の発達によって、眼鏡を用いることなく立体ビューを提供することができる新たなディスプレイが市場に参入した。これらのディスプレイは、自動立体視ディスプレイと呼ばれる。   3D displays that can provide two different views have existed for many years. Most of them were based on using glasses that separate the left and right eye views. Now, with the development of display technology, new displays that can provide stereoscopic views without using glasses have entered the market. These displays are called autostereoscopic displays.

最初のアプローチは、ユーザが眼鏡を用いずに立体ビデオを見ることを可能にする液晶ディスプレイに基づく。これらは、レンチキュラ・スクリーン及びバリア・ディスプレイの2つの技術のいずれかに基づく。レンチキュラ・ディスプレイでは、LCDは、レンチキュラレンズのシートによって覆われる。これらのレンズは、左及び右目が異なるピクセルからの光を受け取るように、ディスプレイからの光を回析する。これは、一方が左目ビューのため、一方が右目ビューのための2つの異なる画像が表示されることを可能にする。   The first approach is based on a liquid crystal display that allows the user to view stereoscopic video without using glasses. These are based on one of two technologies: lenticular screen and barrier display. In a lenticular display, the LCD is covered by a sheet of lenticular lenses. These lenses diffract light from the display so that the left and right eyes receive light from different pixels. This allows two different images to be displayed, one for the left eye view and one for the right eye view.

レンチキュラ・スクリーンの代替物はバリア・ディスプレイであり、これは、LCDのピクセルからの光を分離するために、LCDの後ろでバックライトの前の視差バリアを用いる。バリアは、スクリーンの前の規定の位置から、左目が右目と異なるピクセルを見るようなバリアである。バリアは、ディスプレイのロウのピクセルが左及び右目によって交互に見えるように、LCDと観察者との間にあってもよい。バリア・ディスプレイに関する問題は、輝度及び解像度の減少、並びに、非常に狭い観察角である。これにより、バリア・ディスプレイは、例えば9つのビュー及び複数の観察ゾーンを持つレンチキュラ・スクリーンと比べて、リビングルーム・テレビとしては魅力が低いものとなっている。   An alternative to lenticular screens is a barrier display, which uses a parallax barrier behind the LCD and in front of the backlight to separate the light from the LCD pixels. The barrier is such that the left eye sees a different pixel from the right eye from a predetermined position in front of the screen. The barrier may be between the LCD and the viewer so that the display row pixels are viewed alternately by the left and right eyes. Problems with barrier displays are reduced brightness and resolution, and very narrow viewing angles. This makes the barrier display less attractive as a living room television compared to, for example, a lenticular screen with nine views and multiple viewing zones.

更なるアプローチは、高いリフレッシュ・レート(例えば120Hz)でフレームを表示することができる高解像度ビーマーと組み合わせてシャッタ眼鏡を用いることに依然として基づく。シャッタ眼鏡方法では左及び右目ビューが交互に表示されるので、高いリフレッシュ・レートが必要とされる。眼鏡を着用している観察者は、60Hzで立体ビデオを知覚する。シャッタ眼鏡方法は、高い品質のビデオ及び高いレベルの深さを可能にする。   A further approach is still based on using shutter glasses in combination with a high resolution beamer that can display frames at a high refresh rate (eg, 120 Hz). Since the left and right eye views are alternately displayed in the shutter glasses method, a high refresh rate is required. An observer wearing glasses perceives stereoscopic video at 60 Hz. The shutter glasses method allows for high quality video and a high level of depth.

自動立体視ディスプレイ及びシャッタ眼鏡方法の両方は、適応-輻輳不整合を被る。これは、深さの量及びこれらの装置を用いて快適に観察可能な時間を制限する。ホログラフィック及び体積ディスプレイのような他の表示技術が存在し、これらはこの問題を被らない。なお、本発明は、深さ範囲を持つ任意のタイプの3Dディスプレイのために用いられることができる。   Both the autostereoscopic display and the shutter glasses method suffer from an adaptive-congestion mismatch. This limits the amount of depth and the time that can be comfortably observed with these devices. There are other display technologies such as holographic and volumetric displays, which do not suffer from this problem. It should be noted that the present invention can be used for any type of 3D display with a depth range.

3Dディスプレイのための画像データは、電子的な(通常デジタルの)データとして利用可能であると仮定される。本発明は、そのような画像データに関し、デジタル領域で画像データを操作する。画像データは、ソースへ転送されるときに、例えばデュアル・カメラを用いることにより、すでに3D情報を含む場合があり、或いは、専用の前処理システムが、2D画像から3D情報を(再)生成するために関与する場合がある。画像データは、スライドのような静止画であることができ、或いは、動くビデオのような動画を含むことができる。通常グラフィカル・データと呼ばれる他の画像データは、記憶されたオブジェクトとして利用可能であるか、又は、アプリケーションによって要求されたときにオン・ザ・フライ(on the fly)で生成されることができる。例えば、メニュー、ナビゲーション・アイテム又はテキスト及びヘルプ注釈のようなユーザ制御情報が、他の画像データに追加されることができる。   Image data for a 3D display is assumed to be available as electronic (usually digital) data. The present invention relates to such image data and manipulates the image data in the digital domain. The image data may already contain 3D information when transferred to the source, for example by using a dual camera, or a dedicated pre-processing system (re) generates 3D information from the 2D image May be involved in order to. The image data can be a still image such as a slide or can include a moving image such as a moving video. Other image data, usually referred to as graphical data, is available as a stored object or can be generated on the fly when requested by an application. For example, user control information such as menus, navigation items or text and help annotations can be added to other image data.

立体画像がフォーマットされることができる多くの異なる態様が存在し、3D画像フォーマットと呼ばれる。いくつかのフォーマットは、さらに立体情報を担持するために2Dチャネルを用いることに基づく。例えば、左及び右ビューは、インタレースされることができ、又は、左右や上下に並べて配置されることができる。これらの方法は、立体情報を担持するために、解像度を犠牲にする。他のオプションは色を犠牲にすることであり、このアプローチは、アナグラフ・ステレオと呼ばれる。アナグラフ・ステレオは、補色で2つの別々のオーバレイされた画像を表示することに基づくスペクトル多重化を用いる。着色したフィルタを有する眼鏡を用いることにより、各々の目は、その目の前のフィルタと同じ色の画像のみを見る。したがって、例えば、右目は赤の画像のみを見て、左目は緑の画像のみを見る。   There are many different ways in which stereoscopic images can be formatted, referred to as 3D image formats. Some formats are further based on using 2D channels to carry stereoscopic information. For example, the left and right views can be interlaced or arranged side-by-side or up and down. These methods sacrifice resolution in order to carry stereoscopic information. Another option is to sacrifice color and this approach is called anagraph stereo. Analog graph stereo uses spectral multiplexing based on displaying two separate overlaid images with complementary colors. By using eyeglasses with colored filters, each eye sees only an image of the same color as the filter in front of that eye. Thus, for example, the right eye sees only a red image and the left eye sees only a green image.

異なる3Dフォーマットは、2D画像及び補助深さ画像(いわゆる深さマップ)を用いる2つのビューに基づき、深さマップは、2D画像中のオブジェクトの深さに関する情報を伝達する。画像+深さと呼ばれるフォーマットは、いわゆる「深さ」又は視差マップと2D画像との組み合わせであるという点で異なる。これは階調画像であり、ピクセルの階調値は、関連する2D画像中の対応するピクセルの視差(又は深さマップの場合には深さ)の量を示す。表示装置は、入力として2D画像を利用して追加のビューを計算するために、視差、深さ又は像差マップを用いる。これは様々な態様で行われることができ、最も単純な形式は、それらのピクセルに関連づけられる視差値に依存して左又は右にピクセルをシフトすることである。Christoph Fenによる論文"Depth image based rendering, compression and transmission for a new approach on 3D TV"は、この技術の優れた概要を与える(http://iphome.hhi.de/fehn/Publications/fehn_EI2004.pdfを参照)。   Different 3D formats are based on two views using 2D images and auxiliary depth images (so-called depth maps), which convey information about the depth of objects in the 2D images. The format called image + depth differs in that it is a so-called “depth” or a combination of a parallax map and a 2D image. This is a tone image and the tone value of a pixel indicates the amount of parallax (or depth in the case of a depth map) of the corresponding pixel in the associated 2D image. The display device uses parallax, depth or image difference maps to calculate additional views using 2D images as input. This can be done in a variety of ways, and the simplest form is to shift the pixels left or right depending on the disparity value associated with those pixels. The paper "Depth image based rendering, compression and transmission for a new approach on 3D TV" by Christoph Fen gives an excellent overview of this technology (http://iphome.hhi.de/fehn/Publications/fehn_EI2004.pdf reference).

図2は3D画像データの例を示す。画像データの左部分は通常はカラーの2D画像21であり、画像データの右部分は深さマップ22である。2D画像情報は、任意の適切な画像フォーマットで表されることができる。深さマップ情報は、おそらく2D画像と比べて減少した解像度で、各々のピクセルのための深さ値を持つ補助データ・ストリームであることができる。深さマップにおいて、階調値は、2D画像中の関連するピクセルの深さを示す。白は観察者に近いことを示し、黒は観察者から離れた大きい深さを示す。3Dディスプレイは、深さマップからの深さ値を用いることにより、そして必要とされるピクセル変換を計算することによって、ステレオのために必要とされる追加のビューを計算することができる。遮蔽は、推定又はホール充填技術を用いて解決されることができる。遮蔽マップ、視差マップ及び/又は背景の前を移動する透明なオブジェクトのための透明度マップのような、更なるフレームが、データ・ストリーム中に含まれることができ、例えば、画像及び深さマップ・フォーマットにさらに追加されることができる。   FIG. 2 shows an example of 3D image data. The left part of the image data is usually a color 2D image 21, and the right part of the image data is a depth map 22. The 2D image information can be represented in any suitable image format. The depth map information can be an auxiliary data stream with a depth value for each pixel, possibly with a reduced resolution compared to a 2D image. In the depth map, the tone value indicates the depth of the associated pixel in the 2D image. White indicates close to the observer and black indicates a large depth away from the observer. The 3D display can calculate the additional views needed for stereo by using the depth values from the depth map and by calculating the required pixel transformation. Shielding can be solved using estimation or hole filling techniques. Additional frames can be included in the data stream, such as occlusion maps, disparity maps and / or transparency maps for transparent objects moving in front of the background, e.g. images and depth maps. It can be further added to the format.

さらに、ビデオにステレオを追加することは、それがプレーヤー装置(例えばブルーレイ・ディスク・プレーヤー)から立体ディスプレイまで送信されるときのビデオのフォーマットに影響を与える。2Dの場合には、2Dビデオ・ストリーム(復号された画像データ)のみが送信される。ステレオ・ビデオに関して、(ステレオのための)第2のビュー又は深さマップを含む第2のストリームが必要であるので、これは増加する。これは、電気的インタフェース上で必要とされるビットレートを倍にする場合がある。異なるアプローチは、解像度を犠牲にして、第2のビュー又は深さマップが2Dビデオとインタレースされるか又は並べて配置されるようにストリームをフォーマットすることである。   Furthermore, adding stereo to the video affects the format of the video as it is transmitted from the player device (eg, a Blu-ray Disc player) to a stereoscopic display. In the case of 2D, only the 2D video stream (decoded image data) is transmitted. For stereo video, this increases because a second stream containing a second view or depth map (for stereo) is needed. This may double the bit rate required on the electrical interface. A different approach is to format the stream so that the second view or depth map is interlaced or placed side-by-side with 2D video at the expense of resolution.

図2に2Dデータ及び深さマップの例を示す。ディスプレイに送信される深さ表示パラメータは、ディスプレイが深さ情報を正しく解釈することを可能にする。ビデオ中に更なる情報を含めることの例は、ISO standard 23002-3 "Representation of auxiliary video and supplemental information"に記載される(例えば、ISO/IEC JTC1/SC29/WG11 N8259 July 2007を参照)。補助ストリームのタイプに応じて、更なる画像データは、4つ又は2つのパラメータから成る。フレーム・タイプ同期インジケータは、3D表示信号の以降のセクションにおけるそれぞれの3Dビデオ転送フォーマットを示す3Dビデオ・フォーマット・インジケータを有することができる。これは、3Dビデオ転送フォーマットを示すこと又は変更することを可能にし、或いは、転送シーケンスをリセットすること又は更なる同期パラメータをセット若しくはリセットすることを可能にする。   FIG. 2 shows an example of 2D data and a depth map. The depth display parameter sent to the display allows the display to correctly interpret the depth information. An example of including further information in the video is described in ISO standard 23002-3 “Representation of auxiliary video and supplemental information” (see, for example, ISO / IEC JTC1 / SC29 / WG11 N8259 July 2007). Depending on the type of auxiliary stream, the further image data consists of 4 or 2 parameters. The frame type sync indicator may have a 3D video format indicator that indicates the respective 3D video transfer format in subsequent sections of the 3D display signal. This makes it possible to indicate or change the 3D video transfer format, or to reset the transfer sequence or to set or reset further synchronization parameters.

実施の形態において、フレーム・タイプ同期インジケータは、少なくとも1つのフレーム・タイプの頻度を示すフレーム・シーケンス・インジケータを含む。なお、いくつかのフレーム・タイプは、知覚される3D画像の重大な悪化を伴わずに、より低い送信頻度を可能にする(例えば遮蔽データ)。さらに、それぞれのフレーム・タイプの順序は、繰り返されるべきそれぞれのフレーム・タイプのシーケンスとして示されることができる。   In an embodiment, the frame type synchronization indicator includes a frame sequence indicator that indicates the frequency of at least one frame type. It should be noted that some frame types allow lower transmission frequencies (eg occlusion data) without significant degradation of perceived 3D images. Further, the order of each frame type can be shown as a sequence of each frame type to be repeated.

実施の形態において、フレーム・タイプ同期インジケータ及び3D転送情報は、フレーム・シーケンス番号を含む。個々のフレームがフレーム・シーケンス番号を備えることもできる。例えば1つの三次元画像を構成する全てのフレームが送信されると、シーケンス番号は規則正しくインクリメントされ、以降のフレームは次の三次元画像に属する。したがって、番号は、同期サイクルごとに異なり、又は、より大きいセクションに対してのみ変化することができる。したがって、ジャンプが実行されるとき、画像表示が再開されることができる前に、それぞれ同じシーケンス番号を有するフレームのセットが転送される必要がある。表示装置は、逸脱したフレーム・シーケンス番号を検出して、フレームの完全なセットのみを組み合わせる。これは、新たな位置にジャンプした後、誤ったフレームの組み合わせが用いられることを防止する。   In an embodiment, the frame type synchronization indicator and the 3D transfer information include a frame sequence number. Individual frames can also have a frame sequence number. For example, when all the frames constituting one 3D image are transmitted, the sequence number is regularly incremented, and the subsequent frames belong to the next 3D image. Thus, the numbers are different for each synchronization cycle or can only change for larger sections. Thus, when a jump is performed, a set of frames each having the same sequence number needs to be transferred before the image display can be resumed. The display detects the deviating frame sequence number and combines only the complete set of frames. This prevents the wrong frame combination from being used after jumping to a new position.

ビデオ上にグラフィックスを追加するとき、ディスプレイ・ユニットにおいて更なるレイヤをオーバレイするために、さらに別のデータ・ストリームが用いられることができる。そのようなレイヤ・データは、以下で詳細に議論されるように3D表示信号中にそれぞれのフレーム・タイプ同期インジケータを追加することによって別々にマークされる異なるフレーム・タイプ中に含まれる。ここで、3Dビデオ転送フォーマットは、それぞれのフレーム・タイプを介して転送されるメイン・ビデオ及び少なくとも1つの補助ビデオ・レイヤを有し、フレーム・タイプ同期インジケータは、メイン・フレーム・タイプ・インジケータ及び補助レイヤ・フレーム・タイプ・インジケータのうちの少なくとも1つを有する。補助ビデオ・レイヤは、例えば、メニューのような字幕若しくは他のグラフィカル情報又は任意の他のオン・スクリーン・データ(OSD)であることができる。   When adding graphics on the video, additional data streams can be used to overlay additional layers in the display unit. Such layer data is contained in different frame types that are marked separately by adding respective frame type synchronization indicators in the 3D display signal as discussed in detail below. Here, the 3D video transfer format has a main video transferred via each frame type and at least one auxiliary video layer, and the frame type synchronization indicator includes a main frame type indicator and At least one of the auxiliary layer frame type indicators. The auxiliary video layer can be, for example, subtitles such as menus or other graphical information or any other on-screen data (OSD).

フレームのユニットのための可能なフォーマットは、図4〜7を参照して説明される。このフォーマットはさらにEP出願番号09150947.1(出願人整理番号PH012841)に記載され、その出願の優先権が主張され、本明細書に参照として組み込まれる。   Possible formats for the frame unit are described with reference to FIGS. This format is further described in EP Application No. 09150947.1 (Applicant Docket No. PH012841), the priority of which application is claimed and is incorporated herein by reference.

受信された圧縮ストリームは、立体視ディスプレイ及び自動立体視ディスプレイの両方での合成及びレンダリングを可能にする3D情報を有し、すなわち、圧縮されたストリームは、左及び右のビデオ・フレーム、並びに、2D+深さ情報に基づくレンダリングを可能にするための深さ(D)、透明度(T)及び遮蔽(O)情報を有する。以下において、深さ(D)、透明度(T)及び遮蔽(O)情報はDOTとして省略される。   The received compressed stream has 3D information that allows compositing and rendering on both stereoscopic and autostereoscopic displays, i.e., the compressed stream includes left and right video frames, and It has depth (D), transparency (T) and occlusion (O) information to enable rendering based on 2D + depth information. In the following, depth (D), transparency (T) and occlusion (O) information is abbreviated as DOT.

圧縮ストリームとしてステレオ及びDOTの両方が存在することで、ディスプレイのタイプ及びサイズに応じて、ディスプレイによって最適化された合成及びレンダリングが可能となるが、合成はコンテンツ作成者によって依然として制御される。   The presence of both stereo and DOT as compressed streams allows for optimized composition and rendering by the display, depending on the display type and size, but composition is still controlled by the content creator.

以下の成分が表示インタフェースを通じて伝送される。
- 復号化ビデオ・データ(PG及びIG/BD-Jと混合されない)
- プレゼンテーション・グラフィックス(PG)データ
- インタラクティブ・グラフィックス(IG)又はBD-Java(登録商標)生成(BD-J)グラフィックス・データ
- 復号化ビデオDOT
- プレゼンテーション・グラフィックス(PG)DOT
- インタラクティブ・グラフィックス(IG)又はBD-Java(登録商標)生成(BD-J)グラフィックス
The following components are transmitted through the display interface:
-Decoded video data (not mixed with PG and IG / BD-J)
-Presentation graphics (PG) data
-Interactive graphics (IG) or BD-Java (registered trademark) generated (BD-J) graphics data
-Decrypted video DOT
-Presentation Graphics (PG) DOT
-Interactive graphics (IG) or BD-Java (registered trademark) generation (BD-J) graphics

図4及び5は、ビデオ・インタフェイスを通じて送信されるフレームのユニットを概略的に示す。   4 and 5 schematically show units of frames transmitted over the video interface.

出力ステージは、インタフェース(好ましくはHDMI)を通じて以下のように構成される6つのフレームのユニットを送信する。
フレーム1:Left(L)ビデオ及びDOTビデオのYUV成分は、図9の最上部に示されるように、1つの24HzのRGB出力フレーム(成分)中に組み合わせられる。YUVは、ビデオ処理の分野において、例によって基準輝度(Y)及び彩度(UV)成分を表わす。
フレーム2:右(R)ビデオは、好ましくは図9の最下部に示されるように、24Hzで変更されずに送信される。
フレーム3:PCカラー(PG-C)は、好ましくは24Hzで、RGB成分として、変更されずに送信される。
フレーム4:PG-Colorの透明度は、図10の最上部に示されるように、別のグラフィックスDOT出力プレーンにコピーされて、さまざまなプレーンのための深さ並びに960x540の遮蔽及び遮蔽深さ(OD)成分と組み合わせられる。
フレーム5:BD-J/IG Color(C)は、好ましくは24Hzで変更されずに送信される。
フレーム6:BD-J/IG Colorの透明度は、図10の最下部に示されるように、別のグラフィックスDOT出力プレーンにコピーされて、深さ並びに960x540遮蔽及び遮蔽深さ(OD)成分と組み合わせられる。
The output stage transmits a unit of six frames configured as follows through an interface (preferably HDMI).
Frame 1: The YUV components of Left (L) video and DOT video are combined into one 24 Hz RGB output frame (component) as shown at the top of FIG. YUV represents the reference luminance (Y) and saturation (UV) components by way of example in the field of video processing.
Frame 2: The right (R) video is transmitted unchanged at 24 Hz, preferably as shown at the bottom of FIG.
Frame 3: PC color (PG-C) is preferably transmitted at 24 Hz, unchanged, as an RGB component.
Frame 4: The transparency of PG-Color is copied to another graphics DOT output plane, as shown at the top of Figure 10, and the depth for the various planes as well as the 960x540 shielding and shielding depth ( OD) component.
Frame 5: BD-J / IG Color (C) is preferably transmitted unchanged at 24 Hz.
Frame 6: The transparency of BD-J / IG Color is copied to another graphics DOT output plane, as shown at the bottom of Figure 10, and with depth and 960x540 shielding and shielding depth (OD) components Can be combined.

図6は、本発明の好ましい実施形態による、ビデオ・インタフェイス上でのフレームの時間出力を概略的に示す。ここで、成分は24Hzで送信され、成分は、ディスプレイに144Hzのインタフェース周波数で、HDMIインタフェース上で時間インタリーブされる。   FIG. 6 schematically illustrates the temporal output of a frame on a video interface according to a preferred embodiment of the present invention. Here, the component is transmitted at 24 Hz and the component is time interleaved on the HDMI interface with an interface frequency of 144 Hz on the display.

この3Dビデオ・フォーマットの利点は、
- 最大限解像度が柔軟な3Dステレオ+DOTフォーマット及び3D HDMI出力が、さまざまな3Dディスプレイ(ステレオ及び自動立体視)のための拡張3Dビデオ(表示サイズ依存関係のための可変ベースライン)及び拡張3Dグラフィックス(より少ないグラフィックス制限、3D TV OSD)可能性を可能にする。
- 品質、オーサリング柔軟性及びプレーヤー・ハードウェアに対する最小のコストに対するいかなる妥協もない。合成及びレンダリングは3Dディスプレイにおいて行われる。
- 必要とされるより高いビデオ・インタフェイス速度は、4k2kフォーマットのためのHDMIにおいて定められていて、デュアル・リンクHDMIによって既に実施されることができる。デュアル・リンクHDMIは、さらにより高いフレームレート(例えば30Hzなど)をサポートする。
The advantage of this 3D video format is
-Maximum resolution flexible 3D stereo + DOT format and 3D HDMI output, extended 3D video (variable baseline for display size dependency) and extended 3D for various 3D displays (stereo and autostereoscopic) Enables the possibility of graphics (less graphics restrictions, 3D TV OSD).
-No compromises on quality, authoring flexibility and minimum cost to player hardware. Compositing and rendering takes place in a 3D display.
-The higher video interface speeds required are defined in HDMI for the 4k2k format and can already be implemented with dual link HDMI. Dual link HDMI supports even higher frame rates (eg 30Hz).

3D転送情報インジケータは、補助ビデオ・レイヤのために、レイヤ・シグナリング・パラメータを有することができる。   The 3D transport information indicator can have layer signaling parameters for the auxiliary video layer.

パラメータは、
- 補助レイヤのタイプ又はフォーマット
- メイン・ビデオの表示に対する補助レイヤの表示の位置
- 補助レイヤの表示のサイズ
- 補助レイヤの表示の出現、消失の時間及び/又は継続時間
-補助3D表示設定又は3D表示パラメータ
のうちの少なくとも1つを示すことができる。
The parameter is
-Auxiliary layer type or format
-Position of auxiliary layer display relative to main video display
-Auxiliary layer display size
-Appearance, disappearance and / or duration of the auxiliary layer display
-At least one of auxiliary 3D display settings or 3D display parameters may be indicated.

さらに詳細な例が以下に記載される。   More detailed examples are described below.

図3は、再生装置及び表示装置の組み合わせを示す。プレーヤー10は、ディスプレイ13の能力を読み出して、空間的に及び時間的に、ディスプレイが取り扱うことができる最も高い解像度のビデオを送信するために、ビデオのフォーマット及びタイミング・パラメータを調整する。実際には、EDIDと呼ばれる規格が用いられる。拡張ディスプレイ識別データ(EDID)は、画像ソース(例えばグラフィックス・カード)にその能力を説明するために表示装置によって提供されるデータ構造である。それは、最新のパーソナル・コンピュータがどの種類のモニタが接続されているかを知ることを可能にする。EDIDは、Video Electronics Standards Association(VESA)により公開される規格によって定められる。http://www.vesa.org/において入手可能なVESA Display Port Standard Version 1, Revision 1a, January 11, 2008を参照。   FIG. 3 shows a combination of a playback device and a display device. Player 10 reads the capabilities of display 13 and adjusts the video format and timing parameters to transmit the highest resolution video that the display can handle, both spatially and temporally. In practice, a standard called EDID is used. Extended display identification data (EDID) is a data structure provided by a display device to describe its capabilities to an image source (eg, a graphics card). It allows modern personal computers to know what type of monitor is connected. EDID is defined by a standard published by the Video Electronics Standards Association (VESA). See VESA Display Port Standard Version 1, Revision 1a, January 11, 2008, available at http://www.vesa.org/.

EDIDは、製造者名、製品タイプ、蛍光体又はフィルタ・タイプ、ディスプレイによってサポートされるタイミング、ディスプレイ・サイズ、輝度データ及び(デジタル・ディスプレイに対してのみ)ピクセル・マッピング・データを含む。ディスプレイからグラフィックス・カードへEDIDを伝送するチャネルは、通常、いわゆるI2Cバスである。EDID及びI2Cの組み合わせは、Display Data Channelバージョン2又はDDC2と呼ばれる。2は、異なるシリアル・フォーマットを用いていたVESAの元のDDCとそれを区別する。EDIDは、I2Cバスと互換性のあるシリアルPROM(programmable read-only memory)又はEEPROM(電気的消去可能PROM)と呼ばれるメモリ装置中でモニタにおいてしばしば記憶される。 The EDID includes manufacturer name, product type, phosphor or filter type, timing supported by the display, display size, brightness data, and pixel mapping data (for digital displays only). The channel for transmitting EDID from the display to the graphics card is usually a so-called I 2 C bus. The combination of EDID and I 2 C is called Display Data Channel version 2 or DDC2. 2 distinguishes it from VESA's original DDC that used a different serial format. The EDID is often stored in the monitor in a memory device called serial PROM (programmable read-only memory) or EEPROM (electrically erasable PROM) compatible with the I 2 C bus.

再生装置は、DDC2チャネルを通してディスプレイにE-EDIDリクエストを送信する。ディスプレイは、E-EDID情報を送信することによって応答する。プレーヤーは、最善のフォーマットを決定して、ビデオ・チャネルを通じて伝送し始める。古いタイプのディスプレイでは、ディスプレイは、DDCチャネル上でE-EDID情報を連続的に送信する。いかなるリクエストも送信されない。インタフェース上で使用されるビデオ・フォーマットをさらに定めるために、更なる組織(Consumer Electronics Association; CEA)は、E-EDIDに対するいくつかの更なる制限及び拡張を定めて、TVタイプのディスプレイ用により適したものにした。特定のE-EDID要求に加えてHDMI規格(上記参照)は、多くの異なるビデオ・フォーマットのための識別コード及び関連するタイミング情報をサポートする。例えば、CEA861-D規格がインタフェース規格HDMIにおいて採用される。HDMIは、物理リンクを定めて、より高いレベルのシグナリングを取り扱うためにCEA861-D及びVESA E-EDID規格をサポートする。VESA E-EDID規格は、ディスプレイが、立体視ビデオ伝送をサポートするかどうか及びどのフォーマットでサポートするかを示すことを可能にする。ディスプレイの能力に関するそのような情報はソース装置に遡って伝わることが留意されるべきである。既知のVESA規格は、ディスプレイにおける3D処理を制御する任意の順方向3D情報を定めない。   The playback device sends an E-EDID request to the display through the DDC2 channel. The display responds by sending E-EDID information. The player determines the best format and begins transmitting over the video channel. In older types of displays, the display continuously sends E-EDID information on the DDC channel. No requests are sent. To further define the video format used on the interface, the Consumer Electronics Association (CEA) has established some further restrictions and extensions to E-EDID to make it more suitable for TV-type displays. I made it. In addition to specific E-EDID requirements, the HDMI standard (see above) supports identification codes and associated timing information for many different video formats. For example, the CEA861-D standard is adopted in the interface standard HDMI. HDMI supports CEA861-D and VESA E-EDID standards to define physical links and handle higher level signaling. The VESA E-EDID standard allows the display to indicate whether and in what format the stereoscopic video transmission is supported. It should be noted that such information regarding the capabilities of the display is passed back to the source device. Known VESA standards do not define any forward 3D information that controls 3D processing on the display.

実施の形態において、3D表示信号中の3D転送情報は、例えばデータ・ストリーム中の別々のパケットとして、非同期で転送され、それに関連があるそれぞれのフレームを識別する。パケットは、正確にビデオと同期しているフレームのための更なるデータを含むことができ、連続するビデオ・フレーム間のブランキング間隔における適切な時点に挿入されることができる。実際的な実施の形態では、3D転送情報は、HDMI Data Island内のパケット中に挿入される。   In an embodiment, the 3D transfer information in the 3D display signal is transferred asynchronously, eg as separate packets in the data stream, and identifies each frame associated with it. The packet can contain additional data for frames that are precisely synchronized with the video and can be inserted at an appropriate time in the blanking interval between successive video frames. In a practical embodiment, 3D transfer information is inserted into a packet in HDMI Data Island.

オーディオ・ビデオ・データ(AV)ストリーム中のHDMIにおいて定義されるAuxiliary Video Information(AVI)中に3D転送情報を含めることの例は、以下の通りである。AVIは、Info Frameとして、ソース装置からデジタル・テレビ(DTV)モニタへとAVストリームにおいて伝達される。ソース装置がAuxiliary Video Information(AVI)の伝送をサポートする場合、そして、DTVモニタがその情報を受信することが可能であることを決定する場合、それは、VSYNC周期ごとに一度、DTVモニタにAVIを送信する。このデータは、ビデオ・データの次のフル・フレームに適用される。   An example of including 3D transfer information in Auxiliary Video Information (AVI) defined in HDMI in an audio video data (AV) stream is as follows. The AVI is transmitted as an Info Frame in the AV stream from the source device to the digital television (DTV) monitor. If the source device supports transmission of Auxiliary Video Information (AVI) and determines that the DTV monitor is capable of receiving that information, it will send the AVI to the DTV monitor once every VSYNC period. Send. This data is applied to the next full frame of video data.

以下のセクションにおいて、HMDIシグナリングの簡単な説明が示される。HDMIにおいて、HDMI出力を有する装置はソースとして知られ、HDMI入力を有する装置はシンクとして知られる。情報フレーム(InfoFrame)は、オーディオ若しくはビデオ・ストリーム又はソース装置に関するさまざまな補助データアイテムを伝達するように設計されたCEA-861-Dにおいて定められるデータ構造であり、HDMIをわたってソースからシンクまで伝達される。ビデオ・フィールド(Video Field)は、1つのVSYNCアクティブ・エッジから次のVSYNCアクティブ・エッジまでの期間である。ビデオ・フォーマットは、それがモニタで受信されるときに、モニタがユーザに正しくビデオを表示するのに十分な情報を持つように、十分に定められる。各々のフォーマットの定義は、ビデオ・フォーマット・タイミング、画像アスペクト比及び比色空間を含む。ビデオ・フォーマット・タイミングは、ビデオ・フォーマットに関連した波形である。なお、特定のビデオ・フォーマット・タイミングは、複数のビデオ・フォーマット(例えば、720X480p@4:3及び720X480p@16:9)に関連付けられることができる。   In the following section a brief description of HMDI signaling is given. In HDMI, a device having an HDMI output is known as a source, and a device having an HDMI input is known as a sink. An information frame (InfoFrame) is a data structure defined in CEA-861-D designed to carry various auxiliary data items for audio or video streams or source devices, from source to sink over HDMI. Communicated. The video field is a period from one VSYNC active edge to the next VSYNC active edge. The video format is well defined so that when it is received at the monitor, the monitor has enough information to correctly display the video to the user. Each format definition includes video format timing, image aspect ratio, and colorimetric space. Video format timing is a waveform associated with the video format. Note that a particular video format timing can be associated with multiple video formats (eg, 720X480p @ 4: 3 and 720X480p @ 16: 9).

HDMIは、3つの別々の通信チャネル、TMDS、DDC及びオプションのCECを含む。TMDSは、アクティブ・オーディオ及びビデオ・ストリームを記述するAVI及びオーディオ・情報フレーム(Audio InfoFrame)を含む、補助データだけでなく全てのオーディオ及びビデオ・データを伝達するために用いられる。DDCチャネルは、E-EDIDデータ構造を読み出すことによって、シンクの能力及び特性を決定するために、HDMIソースによって用いられる。   HDMI includes three separate communication channels, TMDS, DDC, and optional CEC. TMDS is used to carry all audio and video data, not just auxiliary data, including AVI and Audio InfoFrame describing active audio and video streams. The DDC channel is used by the HDMI source to determine the capabilities and characteristics of the sink by reading the E-EDID data structure.

HDMIソースは、シンクのE-EDIDを読み出して、シンクによってサポートされるオーディオ及びビデオ・フォーマットのみを供給することを期待される。更に、HDMIシンクは、情報フレームを検出して、受信されたオーディオ及びビデオ・データを適切に処理することを期待される。   The HDMI source is expected to read the sink's E-EDID and provide only the audio and video formats supported by the sink. Furthermore, the HDMI sink is expected to detect information frames and properly process the received audio and video data.

CECチャネルは、より高レベルなユーザ機能(例えば自動設定タスク又は一般的に赤外線遠隔制御の使用と関連したタスク)のために、オプションとして用いられる。   The CEC channel is used as an option for higher level user functions (eg, tasks associated with auto-configuration tasks or generally using infrared remote control).

HDMIリンクは、3つのモード、ビデオ・データ期間、データ・アイランド期間及び制御期間のうちの1つで動作する。ビデオ・データ期間の間、アクティブ・ビデオ・ラインのアクティブ・ピクセルが伝送される。データ・アイランド期間の間、オーディオ及び補助データが、一連のパケットを用いて伝送される。制御期間は、いかなるビデオ、オーディオ又は補助データも伝送される必要がないときに用いられる。制御期間は、制御期間ではない任意の2つの期間の間に必要とされる。   The HDMI link operates in one of three modes: a video data period, a data island period, and a control period. During the video data period, active pixels of the active video line are transmitted. During the data island period, audio and auxiliary data are transmitted using a series of packets. The control period is used when no video, audio or auxiliary data needs to be transmitted. The control period is required between any two periods that are not control periods.

表1は、HDMIデータ・アイランド中のパケット・タイプを示す。

Figure 0006085626
Table 1 shows the packet types in the HDMI data island.
Figure 0006085626

現在の情報フレーム・パケット、AVI情報フレームなどは、3Dビデオ・データの伝送を取り扱うのに適していないことが、本発明者らによって確認された。   The present inventors have confirmed that current information frame packets, AVI information frames, etc. are not suitable for handling the transmission of 3D video data.

一般に、3Dビデオ・データの伝送は、3つのパラメータによって特徴づけられることができる。
− HDMI仕様の表8.7からのVIC(ピクセル繰返し速度)(例えば1920x1080p@60Hz)
− 1つの三次元画像のフレームのユニット中のフレームの数
モノスコープに対してN=1
ステレオ及びビデオ+深さに対してN=2
ビデオ+深さ+グラフィックスに対してN=3
MVD@M=2などに対してN=4
図4〜6を参照して定められるユニットに対してN=6
− フォーマット:チャネルを多重化する態様
−フレーム交互
−フィールド交互
−ライン交互
−サイド・バイ・サイド
−チェッカ・ボード、など
In general, transmission of 3D video data can be characterized by three parameters.
− VIC (pixel repetition rate) from Table 8.7 of the HDMI specification (eg 1920x1080p @ 60Hz)
-The number of frames in a unit of one 3D image frame, N = 1 for monoscope
N = 2 for stereo and video + depth
N = 3 for video + depth + graphics
N = 4 for MVD @ M = 2 etc.
N = 6 for units defined with reference to FIGS.
-Format: Channel multiplexing-Frame alternation-Field alternation-Line alternation-Side-by-side-Checkerboard, etc.

図8は、3D + DOTフォーマット@1920ピクセルのための水平及び垂直ブランキング及びシグナリングを示す。図は、フレーム交互多重化の多重化スキームを示す。この例において、Vactive/5によって示される5つのフレームが3D+DOTフォーマットの3D画像を構成し、これらのフレームは、Vfreqによって示される3D信号の垂直同期パルスVSYNC間のユニット中に順次配置される。垂直同期パルスは、垂直ブランキングVblank後に始まるビデオ・データ期間Vactiveを示し、この期間の間に、フレームがシーケンシャルに配置される。同様に、水平ブランキング・パルスHSYNCは、水平ブランキングHblank後に始まるライン期間Hactiveを示す。それゆえに、フレーム交互の多重化スキームは、前記複数のフレームが前記ビデオ・データ期間内でシーケンシャルに配置されることを示す。   FIG. 8 shows horizontal and vertical blanking and signaling for 3D + DOT format @ 1920 pixels. The figure shows a multiplexing scheme for frame alternating multiplexing. In this example, the five frames indicated by Vactive / 5 constitute a 3D image in 3D + DOT format, and these frames are sequentially arranged in units between the vertical synchronization pulses VSYNC of the 3D signal indicated by Vfreq. . The vertical sync pulse indicates a video data period Vactive that starts after vertical blanking Vblank, during which frames are placed sequentially. Similarly, the horizontal blanking pulse HSYNC indicates a line period Hactive starting after the horizontal blanking Hblank. Therefore, the frame alternate multiplexing scheme indicates that the plurality of frames are sequentially arranged within the video data period.

図9は、1920プログレッシブ@30Hzとして送信される3D + DOTフォーマット720ピクセルのための水平及び垂直ブランキング及びシグナリングを示す。図は、サイド・バイ・サイド・フレーム多重化の多重化スキームを示す。この例において、Hactive/5によって示される5つのフレームは、3D+DOTフォーマットの3D画像を構成し、これらのフレームは、Vfreqによって示される3D信号の垂直同期パルスVSYNC間のユニット中にサイド・バイ・サイドで配置される。垂直同期パルスは、垂直ブランキングVblank後に始まるビデオ・データ期間Vactiveを示し、この期間中に、フレームは、サイド・バイ・サイドで配置される。同様に、水平ブランキング・パルスHSYNCは、水平ブランキングHblank後に始まるライン期間Hactiveを示す。それゆえに、サイド・バイ・サイドのフレーム多重化スキームは、前記複数のフレームが前記ビデオ・データ期間内でシーケンシャルに配置されることを示す。   FIG. 9 shows horizontal and vertical blanking and signaling for 3D + DOT format 720 pixels transmitted as 1920 progressive @ 30 Hz. The figure shows a multiplexing scheme for side-by-side frame multiplexing. In this example, the five frames indicated by Hactive / 5 constitute a 3D image in 3D + DOT format, and these frames are side-by-side in the unit between the vertical synchronization pulses VSYNC of the 3D signal indicated by Vfreq.・ It is arranged on the side. The vertical sync pulse indicates a video data period Vactive that begins after vertical blanking Vblank, during which the frame is placed side by side. Similarly, the horizontal blanking pulse HSYNC indicates a line period Hactive starting after the horizontal blanking Hblank. Therefore, a side-by-side frame multiplexing scheme indicates that the plurality of frames are arranged sequentially within the video data period.

最大の柔軟性のために、本発明によれば、多重化スキームの上記パラメータは、3つの別々のフィールドにおいて送信されるべきである。   For maximum flexibility, according to the present invention, the above parameters of the multiplexing scheme should be transmitted in three separate fields.

本発明の実施の形態において、これらは、AVI情報フレーム及び/又はHDMIベンダー独自(Vendor Specific)情報フレームを通じて送信される。   In the embodiment of the present invention, these are transmitted through an AVI information frame and / or an HDMI vendor-specific information frame.

以下において、HDMIインタフェースの場合の詳細な実施の形態が示される。   In the following, a detailed embodiment in the case of the HDMI interface is shown.

表2は、本発明の好ましい実施の形態による情報フレーム・パケットの関連するバイトを記述した。   Table 2 describes the associated bytes of an information frame packet according to a preferred embodiment of the present invention.

ここで、HDMI_VIC0...HDMI_VIC7は、ビデオ・フォーマット識別コードを記述する。このセクションにおいて定められる任意のビデオ・フォーマットを伝送するときに、HDMIソースはHDMI_VICフィールドをそのフォーマットのためのビデオ・コードに設定する。   Here, HDMI_VIC0... HDMI_VIC7 describes a video format identification code. When transmitting any video format defined in this section, the HDMI source sets the HDMI_VIC field to the video code for that format.

そして、HDMI_3D_FMT0...HDMI_3D_FMTは、3Dフォーマット・コードを記述する。このセクションにおいて定められる任意のビデオ・フォーマットを伝送するときに、HDMIソースは、HDMI_3D_Formatフィールドをそのフォーマットのためのビデオ・コードに設定する。

Figure 0006085626
HDMI_3D_FMT0 ... HDMI_3D_FMT describes a 3D format code. When transmitting any video format defined in this section, the HDMI source sets the HDMI_3D_Format field to the video code for that format.
Figure 0006085626

本発明によれば、補助ビデオ・タイミング・フォーマット値(HDMI_VIC番号によって識別される)が3D(立体視)伝送のために定められる。   According to the invention, auxiliary video timing format values (identified by HDMI_VIC number) are defined for 3D (stereoscopic) transmission.

以下のビデオ・フォーマットが、3D伝送のために用いられる。視聴者の各々の目のための左及び右の画像は、このセクションのビデオ・フォーマット定義を用いることで一意的に区別されることができ、如何なる他の補助情報パケットも必要ない。表3は、関連するEDID及び情報フレーム中に記述されるHDMI_VICの値を示す。   The following video formats are used for 3D transmission. The left and right images for each of the viewer's eyes can be uniquely distinguished using the video format definition in this section, and no other auxiliary information packets are required. Table 3 shows the associated EDID and HDMI_VIC values described in the information frame.

表3は3D伝送のためのHDMI_VICである。

Figure 0006085626
Table 3 shows HDMI_VIC for 3D transmission.
Figure 0006085626

本発明によれば、3DチャネルのHDMI専用の多重化フォーマットはHDMI_3D_FMT番号によって識別され、その例は表4に定められる。3D(立体視)伝送のために、以下の3Dフォーマットが3D伝送のために用いられる。3D伝送のチャネルにおける情報の多重化のフォーマットは、このセクションの3Dフォーマット定義を用いることで、一意的に区別されることができ、如何なる他の補助情報パケットも必要ない。表4は、EDID及び関連する情報フレームにおいて記述されるHDMI_3D_Formatの値を示す。   According to the present invention, the HDMI-only multiplexing format of the 3D channel is identified by the HDMI_3D_FMT number, an example of which is defined in Table 4. For 3D (stereoscopic) transmission, the following 3D formats are used for 3D transmission. The format of information multiplexing in 3D transmission channels can be uniquely distinguished by using the 3D format definition in this section, and no other auxiliary information packets are required. Table 4 shows the value of HDMI_3D_Format described in EDID and related information frames.

表4は、3D伝送のためのHDMI_3D_FMTである。

Figure 0006085626
Table 4 is HDMI_3D_FMT for 3D transmission.
Figure 0006085626

表5は、拡張された解像度伝送のためのHDMI_VICである。

Figure 0006085626
Table 5 is an HDMI_VIC for extended resolution transmission.
Figure 0006085626

本発明によれば、プレーヤー装置は、ソースからシンクへと3Dメタデータを送信することができる:(とりわけ)
- コンテンツ・フォーマット
- リアルタイム2D/3Dシグナリング
- 同期
- 推奨される視角
- 字幕情報
According to the present invention, the player device can send 3D metadata from the source to the sink: (among others)
-Content format
-Real-time 2D / 3D signaling
-Sync
-Recommended viewing angle
-Subtitle information

本発明によれば、補助3Dコンテンツ・メタデータは、伝送されている3Dビデオ・データ中に含まれることができ、メタデータは、好ましくは、SMPTE 3Dマスター・フォーマットに整列配置される。   According to the present invention, auxiliary 3D content metadata can be included in the transmitted 3D video data, and the metadata is preferably aligned in the SMPTE 3D master format.

いくつかのオプションが記載される。メタデータは、以下のうちの1つに含まれることができる。
- 3D情報フレーム・タイプ(CEA)
- AVI情報フレーム
- ベンダー独自情報フレーム(VSIF), CEC
Several options are described. The metadata can be included in one of the following:
-3D information frame type (CEA)
-AVI information frame
-Vendor-specific information frame (VSIF), CEC

以下のセクションにおいて、ステレオ情報を送信するための特定の実施の形態、又は、ユニットが2つのフレームを有する場合が紹介される。   In the following section, a specific embodiment for transmitting stereo information or the case where a unit has two frames is introduced.

例えばディスプレイにおける3Dビデオの適切なレンダリングのための左右シグナリング及び更なる情報のために、フレーム・タイプ同期インジケータを収容するためにAVI-Infoフレーム中のブラック・バー情報を用いることが提案される。AVI-infoフレームは、少なくとも2フィールドごとに送信されるデータブロックである。この理由のために、それは、立体視ビデオ信号の同期のために用いられる場合の要件であるフレームベースのシグナリングを伝送することができる唯一の情報フレームである。相対的なシグナリングに依存する又はベンダー固有の情報フレームに依存する他の解決策と比較したこの解決策の利点は、それがHDMIのための現在のチップセットと互換性があること、及び、それがフレーム単位の同期及びシグナリングのための十分な余地(8バイト)を提供することである。   It is proposed to use the black bar information in the AVI-Info frame to accommodate the frame type synchronization indicator, eg for left and right signaling and further information for proper rendering of 3D video on the display. The AVI-info frame is a data block transmitted at least every two fields. For this reason, it is the only information frame that can carry frame-based signaling, which is a requirement when used for synchronization of stereoscopic video signals. The advantage of this solution compared to other solutions that depend on relative signaling or rely on vendor-specific information frames is that it is compatible with current chipsets for HDMI and that Is to provide enough space (8 bytes) for frame-by-frame synchronization and signaling.

他の実施の形態において、続くビデオ・データが左又は右のビデオ・フレームであることを示すために、HDMIにおいて定義されるプリアンブル・ビットを用いることが提案される。HDMIチャプタ5.2.1.1は、各々のVideo Data Period又はData Island Periodの直前にプリアンブルがあることを定める。これは、来るべきデータ期間がVideo Data Periodであるか又はData Islandであるかどうかを示す8つの同一の制御文字のシーケンスである。CTL0、CTL1、CTL2及びCTL3の値は、続くデータ期間のタイプを示す。残りの制御信号(HSYNC及びVSYNC)は、このシーケンスの間に変化する場合がある。プリアンブルは、現在4ビット、CTL0、CTL1、CLT3及びCTL4である。現在、値としては1000及び1010のみが用いられる。例えば、ここでは、値1100又は1001は、ビデオ・データが、左又は右のビデオ・フレーム、あるいは画像及び/又は深さ情報を含むフレームを含むことを示すように定められることができる。さらに、プリアンブル・ビットは、3Dフレーム・タイプ又はシーケンスの最初の3Dフレームのみを示すことができ、一方、フレーム・タイプの更なる区別は、更なるデータ・フレームによって定められるフレーム・タイプ同期シーケンスに従うことができる。さらに、HSYNC及びVSYNCシグナリングは、フレーム・タイプ同期の少なくとも一部、例えばフレームが左のビデオ・フレームであるか又は右のビデオ・フレームであるかどうかを伝達するように適応されることができる。HSYNCは、左フレームのビデオ・データに先行するように配置され、VSYNCは、ビデオ情報の右フレームに先行するように配置される。同じ原理は、2D画像及び深さ情報のような他のフレーム・タイプに適用されることができる。   In another embodiment, it is proposed to use the preamble bits defined in HDMI to indicate that the following video data is a left or right video frame. HDMI chapter 5.2.1.1 specifies that there is a preamble immediately before each Video Data Period or Data Island Period. This is a sequence of 8 identical control characters that indicate whether the upcoming data period is a Video Data Period or a Data Island. The values of CTL0, CTL1, CTL2, and CTL3 indicate the type of data period that follows. The remaining control signals (HSYNC and VSYNC) may change during this sequence. The preamble is currently 4 bits, CTL0, CTL1, CLT3 and CTL4. Currently, only 1000 and 1010 are used as values. For example, here the value 1100 or 1001 can be defined to indicate that the video data includes a left or right video frame, or a frame that includes image and / or depth information. Furthermore, the preamble bits can only indicate the 3D frame type or the first 3D frame of the sequence, while further distinction of the frame type follows the frame type synchronization sequence defined by the further data frame be able to. Further, HSYNC and VSYNC signaling can be adapted to convey at least part of the frame type synchronization, eg, whether the frame is a left video frame or a right video frame. HSYNC is arranged to precede the left frame video data, and VSYNC is arranged to precede the right frame of video information. The same principle can be applied to other frame types such as 2D images and depth information.

図10は、フレーム・タイプ同期インジケータによって拡張されるAVI-infoフレームの表を示す。AVI-infoフレームは、CEAによって定められて、色及び彩度サンプリング、オーバースキャン及びアンダースキャン並びにアスペクト比に関するフレーム・シグナリングを提供するために、HDMI及び他のビデオ伝送規格によって採用される。以下のようにフレーム・タイプ同期インジケータを実施するために更なる情報が追加された。   FIG. 10 shows a table of AVI-info frames extended by the frame type synchronization indicator. AVI-info frames are defined by CEA and adopted by HDMI and other video transmission standards to provide frame signaling for color and saturation sampling, overscan and underscan, and aspect ratio. Additional information has been added to implement the frame type sync indicator as follows.

データ・バイト1の最後のビットF17及びデータ・バイト4の最後のビットF47は、標準的なAVI-infoフレームにおいて予約される。フレーム・タイプ同期インジケータの実施の形態において、これらは、ブラック・バー情報中の立体視シグナリングの存在を示すために用いられる。ブラック・バー情報は、標準的にデータ・バイト6〜13に含まれる。バイト14-27は、通常、HDMIにおいて予約されており、したがって、現在のハードウェアでは正しく伝送されないかもしれない。したがって、これらのフィールドは、重要度が低いOSD位置情報を提供するために用いられる。表の構文は以下の通りである。F17が設定される場合(=1)、13までのデータ・バイトは、3Dパラメータ情報を含む。デフォルトのケースはF17が設定されない場合(=0)であり、これは、3Dパラメータ情報が存在しないことを意味する。   The last bit F17 of data byte 1 and the last bit F47 of data byte 4 are reserved in a standard AVI-info frame. In the frame type sync indicator embodiment, these are used to indicate the presence of stereoscopic signaling in the black bar information. Black bar information is typically included in data bytes 6-13. Bytes 14-27 are usually reserved in HDMI and therefore may not be transmitted correctly on current hardware. Therefore, these fields are used to provide less important OSD location information. The syntax of the table is as follows: When F17 is set (= 1), up to 13 data bytes contain 3D parameter information. The default case is when F17 is not set (= 0), which means that 3D parameter information does not exist.

データ・バイト12〜19は、OSD/字幕オーバレイの位置を示す。更なるレイヤは、メイン・ビデオ・レイヤより小さくてもよく、バイト12-19の位置データに基づいて配置される。これは、フレーム・タイプ同期インジケータによって示されるスクリーンの領域上で特定のレンダリングを3Dディスプレイが実行することを可能にする。フレーム・タイプ同期インジケータは、字幕/OSD情報がいつ現れる必要があって及び/又は消える必要があるのかを示すために、例えば、図10においてレンダリング・パラメータと呼ばれるデータ・バイト20-27中に、同期タイミング情報をさらに含むことができる。   Data bytes 12-19 indicate the position of the OSD / subtitle overlay. The further layer may be smaller than the main video layer and is arranged based on the byte 12-19 position data. This allows the 3D display to perform a specific rendering on the area of the screen indicated by the frame type sync indicator. The frame type sync indicator is used to indicate when subtitle / OSD information needs to appear and / or disappear, for example, in data bytes 20-27, called rendering parameters in FIG. Synchronization timing information can be further included.

図11は、3Dビデオ・フォーマットの表を示す。左カラム中の値は、それぞれの異なるフレーム・タイプを持つ特定のビデオ・フォーマットを各々示す。選択された値は、フレーム同期化インジケータ(例えば図10の表のデータ・バイト7)中に含まれる。データ・バイト7は、ソース(プレーヤー)が伝送している立体視ビデオ・フォーマットを記述する。図11の表は、いくつかの可能な値を記載する。値0は、関連するフレームが2Dであることを示し、3Dタイトルの間に2Dビデオのセグメントを伝送するときに、これは有用である。表示装置(3D-TV)は、内部画像処理を3Dビデオ・フォーマットのこの変更に適応させることができ、例えば、フレーム・シーケンシャル・フォーマットの場合には、時間アップコンバージョンをオフに切り替える。   FIG. 11 shows a table of 3D video formats. The values in the left column each indicate a specific video format with a different frame type. The selected value is included in a frame synchronization indicator (eg, data byte 7 in the table of FIG. 10). Data byte 7 describes the stereoscopic video format that the source (player) is transmitting. The table in FIG. 11 lists some possible values. A value of 0 indicates that the associated frame is 2D, which is useful when transmitting 2D video segments between 3D titles. The display device (3D-TV) can adapt the internal image processing to this change of the 3D video format, for example in the case of the frame sequential format, switching off time upconversion.

図12は、フレーム同期化信号を示す。同期信号は、フレーム同期化インジケータ(例えば図10のデータ・バイト8)中に含まれることができる。データ・バイト8は立体同期化信号を伝達し、図12は同期化信号のフォーマットを示す。同期化信号は、ビデオ・フォーマットと共に、ビデオ・フレームのコンテンツを示す。   FIG. 12 shows a frame synchronization signal. The synchronization signal can be included in a frame synchronization indicator (eg, data byte 8 of FIG. 10). Data byte 8 carries the stereo synchronization signal and FIG. 12 shows the format of the synchronization signal. The synchronization signal indicates the content of the video frame along with the video format.

図10中のデータ・バイト9及び10の値は、ビデオ・フォーマットによって決まる。例えば、(自動)立体視ビデオのために、それらは、ビデオ・コンテンツの最大及び最小視差を示す。別の態様では、それらは、「深さ」情報のオフセット及びスケーリング・ファクタを示すことができる。より高いビット精度が要求される場合(すなわち10ビット深さ)、更なるレジスタが、下位ビットを記憶するために用いられることができる。   The values of data bytes 9 and 10 in FIG. 10 depend on the video format. For example, for (auto) stereoscopic video, they indicate the maximum and minimum parallax of the video content. In another aspect, they can indicate an offset and scaling factor for “depth” information. If higher bit precision is required (ie 10 bit depth), additional registers can be used to store the lower bits.

図13は、補助ビデオ・レイヤのための値を示す。ビデオ・フォーマットは、3Dビデオ信号中に字幕又はメニュー(On Screen Data: OSD)のような補助レイヤのためのフレームを別々に含むことを可能にすることによって、拡張されることができる。図4において、データ・バイト11は、字幕又はOSDオーバレイの存在を示すことができる。図13は、補助レイヤを示すための複数のビデオ・フォーマット・パラメータ値を示す。図10の残りのバイト20-27は、スケーリングされた深さのための情報及び3D表示に関係する遮蔽情報を示す特定のパラメータを提供するために用いられることができる。   FIG. 13 shows values for the auxiliary video layer. The video format can be extended by allowing a frame for auxiliary layers such as subtitles or menus (On Screen Data: OSD) to be included separately in the 3D video signal. In FIG. 4, a data byte 11 can indicate the presence of a caption or OSD overlay. FIG. 13 shows a plurality of video format parameter values for indicating the auxiliary layer. The remaining bytes 20-27 of FIG. 10 can be used to provide specific parameters indicating information for scaled depth and occlusion information related to 3D display.

本発明は、プログラム可能なコンポーネントを用いて、ハードウェア及び/又はソフトウェアとして実施されることができることに留意する必要がある。本発明を実施するための方法は、図1を参照して説明される3D画像データを転送することに対応する処理ステップを持つ。本発明が主に光学記録担体又はインターネットを用いる実施の形態によって説明されたが、本発明はさらに、3Dパーソナル・コンピュータ[PC]表示インタフェース又は無線3D表示装置に結合される3Dメディア・センターPCのような、任意の画像インタフェース環境に適している。   It should be noted that the present invention can be implemented as hardware and / or software using programmable components. The method for implementing the present invention has processing steps corresponding to transferring 3D image data described with reference to FIG. Although the present invention has been described primarily by an embodiment using an optical record carrier or the Internet, the present invention further includes a 3D personal computer [PC] display interface or a 3D media center PC coupled to a wireless 3D display device. It is suitable for any image interface environment.

本発明は、以下のように要約されることができる。三次元(3D)画像データを転送するシステムが述べられる。3Dソース装置は、HDMIのような高速デジタル・インタフェースを介して表示のための3D表示信号を提供する。3D表示信号は、3Dビデオ転送フォーマットに従って3D画像データを構成するフレームのシーケンスを有する。フレームのシーケンスはユニットを有し、各々のユニットは、三次元画像として合成され表示されることが意図されるビデオ情報を有するフレームに対応する。各々のフレームは、デジタル画像ピクセル・データのシーケンスを表すためのデータ構造を持ち、部分的3Dデータ構造を表す。3Dソース装置は、3D表示信号に1つの三次元画像へと構成されるユニット中のビデオ・フレームの数に関する情報を少なくとも有する3D転送情報を含める。ディスプレイは、3D転送情報を検出し、3D転送情報に基づいて表示制御信号を生成する。3D転送情報は、好ましくは、フレームを3D表示信号に多重化するための多重化スキームに関する情報をさらに有し、最も好ましくは、ピクセル・サイズについての情報及びフレームの周波数レートを有する。   The present invention can be summarized as follows. A system for transferring three-dimensional (3D) image data is described. The 3D source device provides a 3D display signal for display via a high speed digital interface such as HDMI. The 3D display signal has a sequence of frames constituting 3D image data according to the 3D video transfer format. A sequence of frames has units, each unit corresponding to a frame having video information that is intended to be synthesized and displayed as a three-dimensional image. Each frame has a data structure for representing a sequence of digital image pixel data and represents a partial 3D data structure. The 3D source device includes 3D transfer information having at least information regarding the number of video frames in the unit configured into one 3D image in the 3D display signal. The display detects 3D transfer information and generates a display control signal based on the 3D transfer information. The 3D transfer information preferably further comprises information about a multiplexing scheme for multiplexing the frame into the 3D display signal, most preferably information about the pixel size and the frequency rate of the frame.

なお、この文書において、「有する」「含む」などの用語は、挙げられたもの以外の要素又はステップの存在を除外せず、単数で表現された要素はそのような要素が複数存在することを除外せず、いかなる参照符号も請求の範囲を限定せず、本発明は、ハードウェア及びソフトウェアの両方によって実施されることができ、いくつかの「手段」又は「ユニット」はハードウェア又はソフトウェアの同じアイテムによって表されることができ、プロセッサは、ハードウェア素子と協働で、1つ以上のユニットの機能を果たすことができる。さらに、本発明は実施の形態に制限されず、上述されるいずれ新規な特徴又は特徴の組み合わせ中にも存在する。   In this document, terms such as “having” and “including” do not exclude the presence of elements or steps other than those listed, and an element expressed in the singular means that there are a plurality of such elements. Without being excluded, any reference signs do not limit the scope of the claims, the invention can be implemented by both hardware and software, and some "means" or "units" may be hardware or software It can be represented by the same item, and the processor can perform the functions of one or more units in cooperation with the hardware elements. Further, the present invention is not limited to the embodiments, but is present in any novel feature or combination of features described above.

Claims (15)

三次元[3D]画像データを転送する方法であって、3Dソース装置において
連のパケットを用いてオーディオ及び補助データが送信される期間であるデータ・アイランド期間並びにアクティブ・ビデオのピクセルが送信される期間であるビデオ・データ期間を有する3Dビデオ転送フォーマットに従って前記3D画像データを構成するフレームのシーケンスを有する3D表示信号を生成するためにソース画像データを処理し、
前記3D表示信号を出力し、
3D表示装置において、
前記3D表示信号を受信し、
3Dディスプレイで前記3D画像データをレンダリングするための表示制御信号を生成するために3D表示信号を処理し、
フレームの前記シーケンスはユニットを有し、前記ユニットは、垂直ブランキングから次の垂直ブランキングまでの期間であり、各ユニットは、多重化スキームに従って配置される複数のフレームに対応し、前記複数のフレームは、3D画像として合成され表示されることが意図されるビデオ情報を有し、
前記ユニット中の各フレームは、デジタル画像ピクセル・データのシーケンスを表すためのデータ構造を有し、各フレーム・タイプは、部分的3Dデータ構造を表し、
当該方法は、前記3Dソース装置において、
前記データ・アイランド期間に送信される補助情報フレーム・パケット中に、前記3D表示信号中の1つの3D画像として合成されるべきユニット中のビデオ・フレームの数を含む前記多重化スキームに関する情報を少なくとも有する3D転送情報及び、前記3D画像の伝送のためのビデオ・フォーマットに応じた前記垂直ブランキングの期間を示す情報を含め、
前記多重化スキームは、少なくともフレーム交互多重化を含む多重化スキームのグループから選択され、フレーム交互とは、前記複数のフレームが前記ビデオ・データ期間内でシーケンシャルに配置されることを示し、
前記表示制御信号の生成が、前記3D転送情報に依存して実行される、方法。
A method of transferring three-dimensional [3D] image data in a 3D source device ,
The 3D image data in accordance with 3D video transmission format having video data period audio and data island period and the active video pixel is a period in which the auxiliary data is transmitted is a period that is transmitted using a packet of a series Processing source image data to generate a 3D display signal having a sequence of frames comprising
Outputting the 3D display signal;
In the 3D display device,
Receiving the 3D display signal;
Processing a 3D display signal to generate a display control signal for rendering the 3D image data on a 3D display;
The sequence of frames has units, wherein the unit is a period from vertical blanking to the next vertical blanking , each unit corresponding to a plurality of frames arranged according to a multiplexing scheme, The frame has video information that is intended to be synthesized and displayed as a 3D image,
Each frame in the unit has a data structure for representing a sequence of digital image pixel data, each frame type represents a partial 3D data structure,
In the 3D source device, the method includes:
During supplementary information frame packets to be transmitted to the data island period, at least information about the multiplexing scheme containing the number of video frames in the to be synthesized unit as one 3D image in the 3D display signal Yes to 3D transfer information, and the information indicating the period of the vertical blanking in accordance with the video format for the transmission of the 3D image including,
The multiplexing scheme is selected from a group of multiplexing schemes including at least frame alternating multiplexing, wherein frame alternating indicates that the plurality of frames are arranged sequentially within the video data period;
The generation of the display control signal is performed depending on the 3D transfer information.
前記多重化スキームに関する前記情報において、多重化スキームの前記グループが、
フィールド交互多重化、
ライン交互多重化、
前記複数のフレームが前記ビデオ・データ期間内でサイド・バイ・サイドで配置されることを示す、サイド・バイ・サイド・フレーム多重化、
2D及び深さフレーム多重化、
2D,深さ、グラフィックス及びグラフィックス深さフレーム多重化、
のうちの少なくとも1つをさらに有する、請求項1に記載の方法。
In the information regarding the multiplexing scheme, the group of multiplexing schemes is
Field alternating multiplexing,
Line alternate multiplexing,
Side-by-side frame multiplexing, indicating that the plurality of frames are arranged side-by-side within the video data period;
2D and depth frame multiplexing,
2D, depth, graphics and graphics depth frame multiplexing,
The method of claim 1, further comprising at least one of:
前記3D転送情報がピクセル・サイズ及びフレームの送信度についての情報を含む、請求項1に記載の方法。 The 3D transfer information includes information about the transmission frequency with the pixel size and frame The method of claim 1. 前記ビデオ転送フォーマットがHDMI(登録商標)である、請求項3に記載の方法。   The method of claim 3, wherein the video transfer format is HDMI®. 前記3D転送情報がAVI情報フレーム中に含まれる、請求項4に記載の方法。   The method of claim 4, wherein the 3D transfer information is included in an AVI information frame. 前記3D転送情報が、ベンダー独自(Vendor Specific)情報フレーム中に含まれる、請求項4に記載の方法。   5. The method of claim 4, wherein the 3D transfer information is included in a Vendor Specific information frame. 三次元[3D]表示装置に3D画像データを転送するための3Dソース装置であって
連のパケットを用いてオーディオ及び補助データが送信される期間であるデータ・アイランド期間及びアクティブ・ビデオのピクセルが送信される期間であるビデオ・データ期間を有する3Dビデオ転送フォーマットに従って前記3D画像データを構成するフレームのシーケンスを有する3D表示信号を生成するためにソース画像データを処理する生成手段、並びに
前記3D表示信号を出力するための出力インタフェース手段を有し、
各フレームは、デジタル画像ピクセル・データのシーケンスを表すためのデータ構造を有し、各フレーム・タイプは部分的3Dデータ構造を表し、
フレームの前記シーケンスはユニットを有し、前記ユニットは、垂直ブランキングから次の垂直ブランキングまでの期間であり、各ユニットは、多重化スキームに従って配置される複数のフレームに対応し、前記複数のフレームは、3D画像として合成され表示されることが意図されるビデオ情報を有し、
前記出力インタフェース手段は、表示装置において、3D転送情報に依存して表示制御信号を生成するために、前記データ・アイランド期間に送信する補助情報フレーム・パケットにおいて、前記3D表示信号中の1つの3D画像として合成されるべきユニット中のビデオ・フレームの数を含む前記多重化スキームに関する情報を少なくとも有する前記3D転送情報及び、前記3D画像の伝送のためのビデオ・フォーマットに応じた前記垂直ブランキングの期間を示す情報を送信し、前記多重化スキームは、少なくともフレーム交互多重化を含む多重化スキームのグループから選択され、フレーム交互とは、前記複数のフレームが前記ビデオ・データ期間内でシーケンシャルに配置されることを示す、3Dソース装置。
A 3D source device for transferring 3D image data to a three-dimensional [3D] display device ,
The 3D image data in accordance with 3D video transmission format having video data period audio and data island period and the active video pixel is a period in which the auxiliary data is transmitted is a period that is transmitted using a packet of a series Generating means for processing source image data to generate a 3D display signal having a sequence of frames that constitutes, and an output interface means for outputting the 3D display signal,
Each frame has a data structure for representing a sequence of digital image pixel data, each frame type represents a partial 3D data structure,
The sequence of frames has units, wherein the unit is a period from vertical blanking to the next vertical blanking , each unit corresponding to a plurality of frames arranged according to a multiplexing scheme, The frame has video information that is intended to be synthesized and displayed as a 3D image,
In the auxiliary information frame packet transmitted in the data island period, the output interface means generates one display control signal depending on the 3D transfer information in the display device. the 3D transfer information to at least have the information about the multiplexing scheme containing the number of video frames in the unit to be synthesized as an image, and the vertical blanking in accordance with the video format for the transmission of the 3D image Transmitting information indicating a period of ranking, wherein the multiplexing scheme is selected from a group of multiplexing schemes including at least frame alternating multiplexing, wherein frame alternating means that the plurality of frames are sequentially within the video data period. 3D source device showing that it is placed in
前記出力インタフェース手段が、
フィールド交互多重化、
ライン交互多重化、
前記複数のフレームが前記ビデオ・データ期間内でサイド・バイ・サイドで配置されることを示す、サイド・バイ・サイド・フレーム多重化、
2D及び深さフレーム多重化、
2D,深さ、グラフィックス及びグラフィックス深さフレーム多重化、
のうちの少なくとも1つをさらに有する多重化スキームの前記グループによる前記多重化スキームに関する更なる情報を提供する、請求項7に記載の3Dソース装置。
The output interface means comprises:
Field alternating multiplexing,
Line alternate multiplexing,
Side-by-side frame multiplexing, indicating that the plurality of frames are arranged side-by-side within the video data period;
2D and depth frame multiplexing,
2D, depth, graphics and graphics depth frame multiplexing,
The 3D source device of claim 7, further providing information on the multiplexing scheme by the group of multiplexing schemes further comprising at least one of:
3D表示装置であって、
3D画像データを表示するための3Dディスプレイ
連のパケットを用いてオーディオ及び補助データが送信される期間であるデータ・アイランド期間及びアクティブ・ビデオのピクセルが送信される期間であるビデオ・データ期間を有する3Dビデオ転送フォーマットに従って前記3D画像データを構成するフレームを有する3D表示信号を受信するための入力インタフェース手段、並びに
前記3Dディスプレイで前記3D画像データをレンダリングするための表示制御信号を生成するための処理手段を有し、
各フレームは、デジタル画像ピクセル・データのシーケンスを表すためのデータ構造を有し、各フレーム・タイプは、部分的3Dデータ構造を表し、
フレームの前記シーケンスはユニットを有し、前記ユニットは、垂直ブランキングから次の垂直ブランキングまでの期間であり、各ユニットは、多重化スキームに従って配置される複数のフレームに対応し、前記複数のフレームは、3D画像として合成され表示されることが意図されるビデオ情報を有し、
前記データ・アイランド期間に送信される補助情報フレーム・パケット中の3D転送情報は、前記3D表示信号中の1つの3D画像として合成されるべきユニット中のビデオ・フレームの数を含む前記多重化スキームに関する情報を少なくとも有し、前記補助情報フレーム・パケットはさらに、前記3D画像の伝送のためのビデオ・フォーマットに応じた前記垂直ブランキングの期間を示す情報を有し、前記多重化スキームは、少なくともフレーム交互多重化を含む多重化スキームのグループから選択され、フレーム交互とは、前記複数のフレームが前記ビデオ・データ期間内でシーケンシャルに配置されることを示し、
前記処理手段は、前記3D転送情報に依存して前記表示制御信号を生成する、3D表示装置。
A 3D display device,
3D display for displaying 3D image data ,
The 3D image data in accordance with 3D video transmission format having video data period audio and data island period and the active video pixel is a period in which the auxiliary data is transmitted is a period that is transmitted using a packet of a series Input interface means for receiving a 3D display signal having a frame comprising: a processing means for generating a display control signal for rendering the 3D image data on the 3D display;
Each frame has a data structure for representing a sequence of digital image pixel data, each frame type represents a partial 3D data structure,
The sequence of frames has units, wherein the unit is a period from vertical blanking to the next vertical blanking , each unit corresponding to a plurality of frames arranged according to a multiplexing scheme, The frame has video information that is intended to be synthesized and displayed as a 3D image,
The multiplexing scheme wherein 3D transfer information in the auxiliary information frame packet transmitted during the data island period includes the number of video frames in a unit to be combined as one 3D image in the 3D display signal. The auxiliary information frame packet further includes information indicating a period of the vertical blanking according to a video format for transmission of the 3D image, and the multiplexing scheme includes at least Selected from a group of multiplexing schemes including frame alternating multiplexing, wherein frame alternating indicates that the plurality of frames are sequentially arranged within the video data period;
The 3D display device, wherein the processing means generates the display control signal depending on the 3D transfer information.
前記処理手段が、
フィールド交互多重化、
ライン交互多重化、
前記複数のフレームが前記ビデオ・データ期間内でサイド・バイ・サイドで配置されることを示す、サイド・バイ・サイド・フレーム多重化、
2D及び深さフレーム多重化、
2D、深さ、グラフィックス及びグラフィックス深さフレーム多重化、
のうちの少なくとも1つをさらに有する多重化スキームの前記グループによる前記多重化スキームに関する更なる情報に依存して前記表示制御信号を生成する、
請求項9に記載の3D表示装置。
The processing means is
Field alternating multiplexing,
Line alternate multiplexing,
Side-by-side frame multiplexing, indicating that the plurality of frames are arranged side-by-side within the video data period;
2D and depth frame multiplexing,
2D, depth, graphics and graphics depth frame multiplexing,
Generating the display control signal in dependence on further information regarding the multiplexing scheme by the group of multiplexing schemes further comprising at least one of:
The 3D display device according to claim 9.
前記ビデオ転送フォーマットがHDMI(登録商標)である、請求項10に記載の3D表示装置。   The 3D display device according to claim 10, wherein the video transfer format is HDMI (registered trademark). 前記3D転送情報がAVI情報フレーム中に含まれる、請求項11に記載の3D表示装置。   The 3D display device according to claim 11, wherein the 3D transfer information is included in an AVI information frame. 前記3D転送情報が、ベンダー独自(Vendor Specific)情報フレーム中に含まれる、請求項11に記載の3D表示装置。   The 3D display device according to claim 11, wherein the 3D transfer information is included in a vendor-specific information frame. 三次元[3D]表示装置に3D画像データを転送するための3D表示信号であって、当該3D表示信号は、一連のパケットを用いてオーディオ及び補助データが送信される期間であるデータ・アイランド期間並びにアクティブ・ビデオのピクセルが送信される期間であるビデオ・データ期間を有する3Dビデオ転送フォーマットに従って前記3D画像データを構成するフレームのシーケンスを有し、
フレームの前記シーケンスはユニットを有し、前記ユニットは、垂直ブランキングから次の垂直ブランキングまでの期間であり、各ユニットは、多重化スキームに従って配置される複数のフレームに対応し、前記複数のフレームは、3D画像として合成され表示されることが意図されるビデオ情報を有し、
各フレームは、デジタル画像ピクセル・データのシーケンスを表すためのデータ構造を有し、各フレーム・タイプは、部分的3Dデータ構造を表し、
当該3D表示信号は、前記表示装置において、3D転送情報に依存して表示制御信号を生成するために、前記データ・アイランド期間に送信される補助情報フレーム・パケット中に、前記3D表示信号中の1つの3D画像として合成されるべきユニット中のビデオ・フレームの数を含む前記多重化スキームに関する情報を少なくとも有する前記3D転送情報及び、前記3D画像の伝送のためのビデオ・フォーマットに応じた前記垂直ブランキングの期間を示す情報を有し、
前記多重化スキームは、少なくともフレーム交互多重化を含む多重化スキームのグループから選択され、フレーム交互とは、前記複数のフレームが前記ビデオ・データ期間内でシーケンシャルに配置されることを示す、3D表示信号。
A 3D display signal for transferring 3D image data into a three dimensional [3D] display device, the 3D display signal, data islands audio and auxiliary data are duration that is transmitted using a packet of a series A sequence of frames constituting the 3D image data according to a 3D video transfer format having a period as well as a video data period during which active video pixels are transmitted;
The sequence of frames has units, wherein the unit is a period from vertical blanking to the next vertical blanking , each unit corresponding to a plurality of frames arranged according to a multiplexing scheme, The frame has video information that is intended to be synthesized and displayed as a 3D image,
Each frame has a data structure for representing a sequence of digital image pixel data, each frame type represents a partial 3D data structure,
The 3D display signal is included in the 3D display signal in the auxiliary information frame packet transmitted in the data island period to generate a display control signal depending on 3D transfer information in the display device. one of the 3D transfer information to at least have the information about the multiplexing scheme containing the number of video frames in the unit to be synthesized as a 3D image, and, depending on the video format for the transmission of the 3D image Information indicating the vertical blanking period;
The multiplexing scheme is selected from a group of multiplexing schemes including at least frame alternating multiplexing, wherein frame alternating indicates that the plurality of frames are sequentially arranged within the video data period signal.
前記多重化スキームに関する前記情報において、多重化スキームの前記グループが、
フィールド交互多重化、
ライン交互多重化、
前記複数のフレームが前記ビデオ・データ期間内でサイド・バイ・サイドで配置されることを示す、サイド・バイ・サイド・フレーム多重化、
2D及び深さフレーム多重化、
2D,深さ、グラフィックス及びグラフィックス深さフレーム多重化、
のうちの少なくとも1つをさらに有する、請求項14に記載の3D表示信号。
In the information regarding the multiplexing scheme, the group of multiplexing schemes is
Field alternating multiplexing,
Line alternate multiplexing,
Side-by-side frame multiplexing, indicating that the plurality of frames are arranged side-by-side within the video data period;
2D and depth frame multiplexing,
2D, depth, graphics and graphics depth frame multiplexing,
15. The 3D display signal of claim 14, further comprising at least one of:
JP2015021184A 2009-01-20 2015-02-05 Transfer of 3D image data Active JP6085626B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP09150947 2009-01-20
EP09150939.8 2009-01-20
EP09150939 2009-01-20
EP09150947.1 2009-01-20

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011545824A Division JP5694952B2 (en) 2009-01-20 2010-01-14 Transfer of 3D image data

Publications (2)

Publication Number Publication Date
JP2015130680A JP2015130680A (en) 2015-07-16
JP6085626B2 true JP6085626B2 (en) 2017-02-22

Family

ID=46650090

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011545824A Active JP5694952B2 (en) 2009-01-20 2010-01-14 Transfer of 3D image data
JP2015021184A Active JP6085626B2 (en) 2009-01-20 2015-02-05 Transfer of 3D image data

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2011545824A Active JP5694952B2 (en) 2009-01-20 2010-01-14 Transfer of 3D image data

Country Status (1)

Country Link
JP (2) JP5694952B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3528496A1 (en) * 2018-02-16 2019-08-21 Ultra-D Coöperatief U.A. Overscan for 3d display

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000197074A (en) * 1998-12-25 2000-07-14 Canon Inc Stereoscopic reproduction device, output device, and its control method and storage medium
JP2006195018A (en) * 2005-01-12 2006-07-27 Nippon Telegr & Teleph Corp <Ntt> Three dimensional display method, image generation side apparatus and image display side apparatus
KR100813961B1 (en) * 2005-06-14 2008-03-14 삼성전자주식회사 Method and apparatus for transmitting and receiving of video, and transport stream structure thereof
EP1897056B1 (en) * 2005-06-23 2016-08-10 Koninklijke Philips N.V. Combined exchange of image and related data
JP4179387B2 (en) * 2006-05-16 2008-11-12 ソニー株式会社 Transmission method, transmission system, transmission method, transmission device, reception method, and reception device
JP2010088092A (en) * 2008-09-02 2010-04-15 Panasonic Corp Three-dimensional video transmission system, video display device and video output device

Also Published As

Publication number Publication date
JP2015130680A (en) 2015-07-16
JP5694952B2 (en) 2015-04-01
JP2012516071A (en) 2012-07-12

Similar Documents

Publication Publication Date Title
KR101634569B1 (en) Transferring of 3d image data
JP5809064B2 (en) Transfer of 3D image data
US20110298795A1 (en) Transferring of 3d viewer metadata
US11381800B2 (en) Transferring of three-dimensional image data
US20110316848A1 (en) Controlling of display parameter settings
JP6085626B2 (en) Transfer of 3D image data

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160310

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170130

R150 Certificate of patent or registration of utility model

Ref document number: 6085626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250