JP2013176141A - Device and method for receiving stereoscopic image data - Google Patents

Device and method for receiving stereoscopic image data Download PDF

Info

Publication number
JP2013176141A
JP2013176141A JP2013094585A JP2013094585A JP2013176141A JP 2013176141 A JP2013176141 A JP 2013176141A JP 2013094585 A JP2013094585 A JP 2013094585A JP 2013094585 A JP2013094585 A JP 2013094585A JP 2013176141 A JP2013176141 A JP 2013176141A
Authority
JP
Japan
Prior art keywords
image data
data
eye image
information
graphics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2013094585A
Other languages
Japanese (ja)
Inventor
Ikuo Tsukagoshi
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013094585A priority Critical patent/JP2013176141A/en
Publication of JP2013176141A publication Critical patent/JP2013176141A/en
Ceased legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To maintain compatibility of perspective with each object in an image in display of superposition information.SOLUTION: An image data reception section receives stereoscopic image data including left eye image data and right eye image data. An image data processing section gives parallax to the same superposition information superposed on a left eye image and a right eye image on the basis of parallax information of the left eye image or the right eye image to the other image. The parallax information is obtained by processing the left eye image data and the right eye image data, which are included in the stereoscopic image data received by the image data reception section. The image data processing section obtains the left eye image data on which the superposition information is superposed and the right eye image data on which the superposition information is superposed.

Description

この発明は、立体画像データ受信装置および立体画像データ受信方法に関し、特に、グラフィクス情報、テキスト情報等の重畳情報の表示を良好に行い得る立体画像データ送信方法等に関する。   The present invention relates to a stereoscopic image data receiving apparatus and a stereoscopic image data receiving method, and more particularly to a stereoscopic image data transmission method and the like that can favorably display superimposition information such as graphics information and text information.

例えば、特許文献1には、立体画像データのテレビ放送電波を用いた伝送方式について提案されている。この場合、左眼用画像データおよび右眼用画像データを含む立体画像データが送信され、テレビ受信機において、両眼視差を利用した立体画像表示が行われる。   For example, Patent Document 1 proposes a transmission method that uses a television broadcast radio wave of stereoscopic image data. In this case, stereoscopic image data including left-eye image data and right-eye image data is transmitted, and stereoscopic image display using binocular parallax is performed in the television receiver.

図42は、両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクト(物体)の左右像の表示位置と、その立体像の再生位置との関係を示している。例えば、スクリーン上に図示のように左像Laが右側に右像Raが左側にずれて表示されているオブジェクトAに関しては、左右の視線がスクリーン面より手前で交差するため、その立体像の再生位置はスクリーン面より手前となる。   FIG. 42 shows the relationship between the display position of the left and right images of an object (object) on the screen and the playback position of the stereoscopic image in stereoscopic image display using binocular parallax. For example, with respect to the object A in which the left image La is displayed on the right side and the right image Ra is shifted to the left side as shown in the figure on the screen, the right and left line of sight intersects in front of the screen surface. The position is in front of the screen surface.

また、例えば、スクリーン上に図示のように左像Lbおよび右像Rbが同一位置に表示されているオブジェクトBに関しては、左右の視線がスクリーン面で交差するため、その立体像の再生位置はスクリーン面上となる。さらに、例えば、スクリーン上に図示のように左像Lcが左側に右像Rcが右側にずれて表示されているオブジェクトCに関しては、左右の視線がスクリーン面より奥で交差するため、その立体像の再生位置はスクリーン面より奥となる。   Further, for example, with respect to the object B in which the left image Lb and the right image Rb are displayed at the same position as shown in the figure on the screen, the right and left lines of sight intersect on the screen surface. It becomes on the surface. Further, for example, with respect to the object C displayed on the screen as shown in the figure, the left image Lc is shifted to the left side and the right image Rc is shifted to the right side, the right and left lines of sight intersect at the back of the screen surface. The playback position is behind the screen.

特開2005−6114号公報Japanese Patent Laid-Open No. 2005-6114

上述したように立体画像表示において、視聴者は、両眼視差を利用して、立体画像の遠近感を認知することが普通である。画像に重畳される重畳情報、例えばグラフィクス情報、テキスト情報等に関しても、2次元空間的のみならず、3次元の奥行き感としても、立体画像表示と連動してレンダリングされることが期待される。   As described above, in stereoscopic image display, a viewer usually recognizes the perspective of a stereoscopic image using binocular parallax. Superimposition information superimposed on an image, such as graphics information and text information, is expected to be rendered in conjunction with stereoscopic image display not only in a two-dimensional space but also in a three-dimensional sense of depth.

例えば、画像にグラフィクス情報である字幕を重畳表示(オーバーレイ表示)する場合、遠近感でいうところの最も近い画像内の物体(オブジェクト)よりも手前に表示されないと、視聴者は、遠近感の矛盾を感じる場合がある。また、他のグラフィクス情報、あるいはテキスト情報を画像に重畳表示する場合にも、画像内の各物体の遠近感に応じて視差調整を施し、遠近感の整合性を維持することが期待される。   For example, when subtitles, which are graphics information, are superimposed on an image (overlay display), the viewer will be inconsistent with perspective unless it is displayed in front of the closest object (object) in the perspective. You may feel In addition, when other graphics information or text information is superimposed on an image, it is expected that parallax adjustment is performed according to the perspective of each object in the image to maintain the consistency of perspective.

この発明の目的は、グラフィクス情報、テキスト情報等の重畳情報の表示において、画像内の各物体との間の遠近感の整合性の維持を図ることにある。   An object of the present invention is to maintain perspective consistency with each object in an image when displaying superimposition information such as graphics information and text information.

この発明の概念は、
左眼画像データおよび右眼画像データを含む立体画像データを受信する画像データ受信部と、
上記画像データ受信部で受信される立体画像データに含まれる上記左眼画像データおよび上記右眼画像データが処理されて得られた、左眼画像および右眼画像の一方に対する他方の視差情報に基づいて、上記左眼画像および上記右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理部
を備える立体画像データ受信装置にある。
The concept of this invention is
An image data receiving unit for receiving stereoscopic image data including left eye image data and right eye image data;
Based on parallax information of the other of the left eye image and the right eye image obtained by processing the left eye image data and the right eye image data included in the stereoscopic image data received by the image data receiving unit Then, parallax is given to the same superimposition information superimposed on the left eye image and the right eye image, and data of the left eye image on which the superposition information is superimposed and data on the right eye image on which the superposition information is superimposed The stereoscopic image data receiving device includes an image data processing unit to be obtained.

この発明において、画像データ受信部により、左眼画像データおよび右眼画像データを含む立体画像データが受信される。また、画像データ処理部により、左眼画像および右眼画像の一方に対する他方の視差情報に基づいて、左眼画像および右眼画像に重畳する同一の重畳情報に視差が付与される。この視差情報は、画像データ受信部で受信される立体画像データに含まれる左眼画像データおよび右眼画像データが処理されて得られたものである。   In the present invention, the image data receiving unit receives stereoscopic image data including left eye image data and right eye image data. Further, the image data processing unit assigns parallax to the same superimposition information to be superimposed on the left eye image and the right eye image based on the other parallax information with respect to one of the left eye image and the right eye image. This disparity information is obtained by processing the left eye image data and the right eye image data included in the stereoscopic image data received by the image data receiving unit.

例えば、視差情報は、視差情報受信部により、画像データ受信部で受信される立体画像データに同期して、受信される。この場合、画像データ受信部で受信された立体画像データに含まれる左眼画像データおよび右眼画像データに基づいて視差情報を得ることを必要とせず、受信側の処理が簡単となる。また、例えば、視差情報は、視差情報取得部により得られる。この視差情報取得部では、画像データ受信部で受信された立体画像データに含まれる左眼画像データおよび右眼画像データに基づき、画像内の所定位置において、左眼画像および右眼画像の一方に対する他方の視差情報が得られる。この場合、視差情報が送られてこなくても、視差情報を用いた処理が可能となる。   For example, the parallax information is received by the parallax information receiving unit in synchronization with the stereoscopic image data received by the image data receiving unit. In this case, it is not necessary to obtain parallax information based on the left eye image data and right eye image data included in the stereoscopic image data received by the image data receiving unit, and the processing on the receiving side is simplified. For example, the parallax information is obtained by a parallax information acquisition unit. In this disparity information acquisition unit, one of the left eye image and the right eye image is determined at a predetermined position in the image based on the left eye image data and the right eye image data included in the stereoscopic image data received by the image data receiving unit. The other parallax information is obtained. In this case, processing using the parallax information is possible even if parallax information is not sent.

また、画像データ処理部により、重畳情報が重畳された左眼画像のデータおよび重畳情報が重畳された右眼画像のデータが得られる。例えば、画像データ送信部により、画像データ処理部で得られた左眼画像データおよび右眼画像データを含む立体画像データが外部機器に送信される。また、例えば、画像表示部により、画像データ処理部で得られた左眼画像データおよび右眼画像データによる立体画像表示のための画像が表示される。   In addition, the image data processing unit obtains left-eye image data on which superimposition information is superimposed and right-eye image data on which superimposition information is superimposed. For example, the image data transmission unit transmits stereoscopic image data including left eye image data and right eye image data obtained by the image data processing unit to an external device. Further, for example, the image display unit displays an image for stereoscopic image display using the left eye image data and the right eye image data obtained by the image data processing unit.

このように、左眼画像および右眼画像の一方に対する他方の視差情報に基づいて、左眼画像および右眼画像に重畳する同一の重畳情報に視差が付与される。そのため、左眼画像および右眼画像に重畳される同一の重畳情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができ、重畳情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。   Thus, parallax is given to the same superimposition information to be superimposed on the left eye image and the right eye image based on the other parallax information with respect to one of the left eye image and the right eye image. Therefore, as the same superimposition information superimposed on the left eye image and the right eye image, information on which parallax adjustment is performed according to the perspective of each object in the image can be used. It is possible to maintain perspective consistency with each of the objects inside.

なお、この発明において、例えば、画像データ処理部は、左眼画像および右眼画像に重畳する同一の重畳情報に、この重畳情報の重畳位置に応じた視差を付与する、ようにしてもよい。この場合、各重畳情報に重畳位置に応じた視差が付与されるので、例えば重畳位置に存在する物体の遠近感と同等の遠近感を重畳情報に持たせることが可能となる。   In the present invention, for example, the image data processing unit may add a parallax corresponding to the superimposition position of the superimposition information to the same superimposition information superimposed on the left eye image and the right eye image. In this case, since the parallax corresponding to the superimposition position is given to each superimposition information, for example, it is possible to give the superimposition information a perspective equivalent to the perspective of the object existing at the superposition position.

また、この発明において、例えば、マルチチャネルのスピーカと、左眼画像データおよび右眼画像データの一方に対する他方の視差情報に基づいて、マルチチャネルのスピーカ出力を制御する制御部をさらに備える、ようにしてもよい。この場合、立体感をさらに際だたせることができる。   In the present invention, for example, a multi-channel speaker and a control unit that controls the multi-channel speaker output based on the other parallax information with respect to one of the left-eye image data and the right-eye image data are further provided. May be. In this case, the stereoscopic effect can be further emphasized.

この発明によれば、左眼画像および右眼画像に重畳される同一の重畳情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができ、重畳情報の表示において遠近感の整合性を維持することが可能となる。   According to the present invention, as the same superimposition information superimposed on the left eye image and the right eye image, information on which parallax adjustment is performed according to the perspective of each object in the image can be used. It is possible to maintain perspective consistency in display.

この発明の実施の形態としての立体画像表示システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the stereo image display system as embodiment of this invention. 放送局における送信データ生成部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the transmission data generation part in a broadcast station. 1920*1080pのピクセルフォーマットの画像データを示す図である。It is a figure which shows the image data of a pixel format of 1920 * 1080p. 立体画像データ(3D画像データ)の伝送方式である「Top & Bottom」方式、「Side By Side」方式、「Frame Sequential」方式を説明するための図である。It is a figure for demonstrating the "Top & Bottom" system, the "Side By Side" system, and the "Frame Sequential" system which are the transmission systems of stereo image data (3D image data). 左眼画像に対する右眼画像の視差ベクトルを検出する例を説明するための図である。It is a figure for demonstrating the example which detects the parallax vector of the right eye image with respect to a left eye image. 視差ベクトルをブロックマッチング方式で求めることを説明するための図である。It is a figure for demonstrating calculating | requiring a parallax vector by a block matching system. 視差ベクトル検出部で検出される、画像内の所定位置おける視差ベクトルVVの一例を示す図である。It is a figure which shows an example of the parallax vector VV in the predetermined position in an image detected by the parallax vector detection part. 視差ベクトルの伝送内容を示す図である。It is a figure which shows the transmission content of a parallax vector. 視差検出ブロック例と、その場合の視差ベクトルの伝送内容を示す図である。It is a figure which shows the transmission content of the example of a parallax detection block, and the parallax vector in that case. 視差ベクトルを検出して伝送するタイミングの例を説明するための図である。It is a figure for demonstrating the example of the timing which detects and transmits a parallax vector. 視差ベクトルを検出して伝送するタイミングの例を説明するための図である。It is a figure for demonstrating the example of the timing which detects and transmits a parallax vector. 送信データ生成部において多重化される各データのストリーム例を示す図である。It is a figure which shows the example of a stream of each data multiplexed in a transmission data generation part. 放送局における送信データ生成部の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the transmission data generation part in a broadcast station. 伝送方式が第1の伝送方式(「Top & Bottom」方式)の場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置等を説明するための図である。It is a figure for demonstrating the superimposition position etc. of the left eye graphics information and right eye graphics information in case a transmission system is a 1st transmission system ("Top & Bottom" system). 伝送方式が第1の伝送方式(「Top & Bottom」方式)の場合における、左眼グラフィクス情報および右眼グラフィクス情報の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of left eye graphics information and right eye graphics information in case a transmission system is a 1st transmission system ("Top & Bottom" system). 伝送方式が第2の伝送方式(「Side By Side」方式)の場合における、左眼グラフィクス情報および右眼グラフィクス情報の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of the left eye graphics information and right eye graphics information in case a transmission system is a 2nd transmission system ("Side By Side" system). 伝送方式が第2の伝送方式(「Side By Side」方式)の場合における、左眼グラフィクス情報および右眼グラフィクス情報の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of the left eye graphics information and right eye graphics information in case a transmission system is a 2nd transmission system ("Side By Side" system). 放送局における送信データ生成部の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the transmission data generation part in a broadcast station. 伝送方式が第2の伝送方式(「Side By Side」方式)の場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置を示す図である。It is a figure which shows the superimposition position of the left eye graphics information and right eye graphics information in case a transmission system is a 2nd transmission system ("Side By Side" system). 左眼画像、右眼画像に対して、ビットストリームデータから抽出された従来方法により伝送されるグラフィクスデータによるグラフィクス画像をそのまま重畳した状態を示す図である。It is a figure which shows the state which superimposed the graphics image by the graphics data transmitted by the conventional method extracted from the bit stream data as it is with respect to the left eye image and the right eye image. 時刻T0,T1,T2,T3における3つのオブジェクト位置の視差ベクトル(View Vector)を示す図である。It is a figure which shows the disparity vector (View Vector) of three object positions in time T0, T1, T2, T3. 画像上における字幕(グラフィクス情報)の表示例と、背景、近景オブジェクト、字幕の遠近感を示す図である。It is a figure which shows the example of a subtitle (graphics information) display on an image, and the perspective of a background, a foreground object, and a subtitle. 画像上における字幕(グラフィクス情報)の表示例と、字幕を表示するための左眼グラフィクス情報LGIおよび右眼グラフィクス情報RGIを示す図である。It is a figure which shows the example of a display of the caption (graphics information) on an image, and the left eye graphics information LGI and the right eye graphics information RGI for displaying a caption. 視差ベクトルとして、画像内の複数位置で検出された視差ベクトルのうち、その重畳位置に対応したものを使用することを説明するための図である。It is a figure for demonstrating using the thing corresponding to the superimposition position among the parallax vectors detected in the several position in an image as a parallax vector. 画像内にA,B,Cの各オブジェクトが存在し、これら各オブジェクトの近傍位置に、各オブジェクトの注釈を示すテキスト情報を重畳することを示す図である。It is a figure which shows superimposing the text information which shows each object of A, B, and C in the image and the annotation of each object on the vicinity position of each of these objects. セットトップボックスの構成例を示すブロック図である。It is a block diagram which shows the structural example of a set top box. セットトップボックスを構成するビットストリーム処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the bit stream process part which comprises a set top box. 視差ベクトルVV1が、テレビディスプレイに向かって左側のビデオオブジェクトの方が大きい場合のスピーカ出力制御例を示す図である。It is a figure which shows the speaker output control example in case the parallax vector VV1 is larger in the left video object toward a television display. セットトップボックスを構成するビットストリーム処理部の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the bit stream process part which comprises a set top box. セットトップボックスを構成するビットストリーム処理部の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the bit stream process part which comprises a set top box. テレビ受信機の構成例を示す図である。It is a figure which shows the structural example of a television receiver. HDMI送信部(HDMIソース)とHDMI受信部(HDMIシンク)の構成例を示すブロック図である。It is a block diagram which shows the structural example of an HDMI transmission part (HDMI source) and an HDMI receiving part (HDMI sink). HDMI送信部を構成するHDMIトランスミッタと、HDMI受信部を構成するHDMIレシーバの構成例を示すブロック図である。It is a block diagram which shows the structural example of the HDMI transmitter which comprises an HDMI transmission part, and the HDMI receiver which comprises an HDMI receiving part. TMDS伝送データの構造例(横*縦が1920ピクセル*1080ラインの画像データが伝送される場合)を示す図である。It is a figure which shows the example of a structure of TMDS transmission data (when the horizontal * length is 1920 pixels * 1080 line image data is transmitted). ソース機器およびシンク機器のHDMIケーブルが接続されるHDMI端子のピン配列(タイプA)を示す図である。It is a figure which shows the pin arrangement (type A) of the HDMI terminal to which the HDMI cable of the source device and the sink device is connected. 第1の伝送方式(「Top & Bottom」方式)のTMDS伝送データ例を示す図である。It is a figure which shows the example of TMDS transmission data of a 1st transmission system ("Top & Bottom" system). 第2の伝送方式(「Side By Side」方式)のTMDS伝送データ例を示す図である。It is a figure which shows the example of TMDS transmission data of a 2nd transmission system ("Side By Side" system). 第3の伝送方式(「Frame Sequential」方式)のTMDS伝送データ例を示す図である。It is a figure which shows the example of TMDS transmission data of a 3rd transmission system ("Frame Sequential" system). HDMI 1.4(New HDMI)での「Frame Sequential」方式と、HDMI 1.3(Legacy HDMI)での「Frame Sequential」方式を説明するための図である。It is a figure for demonstrating the "Frame Sequential" system in HDMI 1.4 (New HDMI) and the "Frame Sequential" system in HDMI 1.3 (Legacy HDMI). セットトップボックスを構成するビットストリーム処理部の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the bit stream process part which comprises a set top box. 立体画像表示システムの他の構成例を示す図である。It is a figure which shows the other structural example of a stereo image display system. 両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクトの左右像の表示位置と、その立体像の再生位置との関係を示す図である。In a stereoscopic image display using binocular parallax, it is a figure which shows the relationship between the display position of the left-right image of the object on a screen, and the reproduction | regeneration position of the stereoscopic image.

以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.第1の実施の形態
2.変形例
Hereinafter, modes for carrying out the invention (hereinafter referred to as “embodiments”) will be described. The description will be given in the following order.
1. 1. First embodiment Modified example

<1.実施の形態>
[立体画像送受信システムの構成例]
図1は、実施の形態としての立体画像送受信システム10の構成例を示している。この立体画像送受信システム10は、放送局100と、セットトップボックス(STB:Set Top Box)200と、テレビ受信機300を有している。
<1. Embodiment>
[Configuration example of stereoscopic image transmission / reception system]
FIG. 1 shows a configuration example of a stereoscopic image transmission / reception system 10 as an embodiment. The stereoscopic image transmission / reception system 10 includes a broadcasting station 100, a set top box (STB) 200, and a television receiver 300.

セットトップボックス200およびテレビ受信機300は、HDMI(High Definition Multimedia Interface)ケーブル400を介して接続されている。セットトップボックス200には、HDMI端子202が設けられている。テレビ受信機300には、HDMI端子302が設けられている。HDMIケーブル400の一端はセットトップボックス200のHDMI端子202に接続され、このHDMIケーブル400の他端はテレビ受信機300のHDMI端子302に接続されている。   The set top box 200 and the television receiver 300 are connected via an HDMI (High Definition Multimedia Interface) cable 400. The set top box 200 is provided with an HDMI terminal 202. The television receiver 300 is provided with an HDMI terminal 302. One end of the HDMI cable 400 is connected to the HDMI terminal 202 of the set top box 200, and the other end of the HDMI cable 400 is connected to the HDMI terminal 302 of the television receiver 300.

[放送局の説明]
放送局100は、ビットストリームデータを、放送波にのせて送信する。このビットストリームデータには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、グラフィクスデータ、テキストデータ、さらには視差情報としての視差ベクトルが含まれる。
[Description of broadcasting station]
The broadcast station 100 transmits bit stream data on a broadcast wave. This bit stream data includes stereoscopic image data including left-eye image data and right-eye image data, audio data, graphics data, text data, and a disparity vector as disparity information.

図2は、放送局100において、上述のビットストリームデータを生成する送信データ生成部110の構成例を示している。この構成例は、視差ベクトルを数値情報として送信する例である。この送信データ生成部110は、カメラ111L,111Rと、ビデオフレーミング部112と、ビデオエンコーダ113と、ビデオエンコーダ113と、視差ベクトル検出部114と、視差ベクトルエンコーダ115を有している。また、この送信データ生成部110は、マイクロホン116と、オーディオエンコーダ117と、グラフィクス発生部118と、グラフィクスエンコーダ119と、テキスト発生部120と、テキストエンコーダ121と、マルチプレクサ122を有している。   FIG. 2 shows a configuration example of the transmission data generation unit 110 that generates the above-described bit stream data in the broadcast station 100. This configuration example is an example in which a disparity vector is transmitted as numerical information. The transmission data generation unit 110 includes cameras 111L and 111R, a video framing unit 112, a video encoder 113, a video encoder 113, a parallax vector detection unit 114, and a parallax vector encoder 115. The transmission data generation unit 110 includes a microphone 116, an audio encoder 117, a graphics generation unit 118, a graphics encoder 119, a text generation unit 120, a text encoder 121, and a multiplexer 122.

カメラ111Lは、左眼画像を撮影して立体画像表示のための左眼画像データを得る。カメラ111Rは、右眼画像を撮影して立体画像表示のための右眼画像データを得る。ビデオフレーミング部112は、カメラ111Lで得られる左眼画像データおよびカメラ111Rで得られる右眼画像データを、伝送方式に応じた状態に加工処理する。   The camera 111L captures a left eye image and obtains left eye image data for stereoscopic image display. The camera 111R captures the right eye image and obtains right eye image data for stereoscopic image display. The video framing unit 112 processes the left eye image data obtained by the camera 111L and the right eye image data obtained by the camera 111R into a state corresponding to the transmission method.

[立体画像データの伝送方式例]
ここでは、立体画像データ(3D画像データ)の伝送方式として、以下の第1〜第3の方式を挙げるが、これら以外の伝送方式であってもよい。ここでは、図3に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、決められた解像度、例えば 1920*1080pのピクセルフォーマットの画像データである場合を例にとって説明する。
[Example of transmission method of stereoscopic image data]
Here, the following first to third methods are listed as transmission methods for stereoscopic image data (3D image data), but other transmission methods may be used. Here, as shown in FIG. 3, the case where the image data of the left eye (L) and the right eye (R) is image data of a predetermined resolution, for example, a pixel format of 1920 * 1080p will be described as an example. To do.

第1の伝送方式は、「Top & Bottom」方式で、図4(a)に示すように、垂直方向の前半では左眼画像データの各ラインのデータを伝送し、垂直方向の後半では左眼画像データの各ラインのデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データのラインが1/2に間引かれることから原信号に対して垂直解像度は半分となる。   The first transmission method is a “Top & Bottom” method, as shown in FIG. 4A, in which the data of each line of left-eye image data is transmitted in the first half in the vertical direction, and the left eye in the second half in the vertical direction. This is a method for transmitting data of each line of image data. In this case, since the lines of the left eye image data and the right eye image data are thinned out to ½, the vertical resolution is halved with respect to the original signal.

第2の伝送方式は、「Side By Side」方式で、図4(b)に示すように、水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。現信号に対して、水平解像度は半分となる。   The second transmission method is the “Side By Side” method, and as shown in FIG. 4B, the pixel data of the left eye image data is transmitted in the first half in the horizontal direction, and the right eye image data in the second half in the horizontal direction. This is a method for transmitting pixel data. In this case, in the left eye image data and the right eye image data, the pixel data in the horizontal direction is thinned out to 1/2. For the current signal, the horizontal resolution is halved.

第3の伝送方式は、「Frame Sequential」方式で、図4(c)に示すように、左眼画像データと右眼画像データとをフィールド毎に順次切換えて伝送する方式である。   The third transmission method is a “Frame Sequential” method, in which left-eye image data and right-eye image data are sequentially switched and transmitted for each field as shown in FIG.

図2に戻って、ビデオエンコーダ113は、ビデオフレーミング部112で加工処理された立体画像データに対して、MPEG4−AVC、あるいはMPEG2等の圧縮符号化を施し、ビデオのエレメンタリーストリームを生成する。さらに、ビデオエンコーダ113は、このビデオのエレメンタリーストリームを分割してビデオのPES(Packetized Elementary Stream)パケットを生成し、最終的にビデオのTS(Transport Stream)パケットを生成する。あるいは、MP4などのファイルコンテナに多重化され、またはリアルタイム用のパケットをコンテナとして伝送されるよう生成がなされる。   Returning to FIG. 2, the video encoder 113 performs compression encoding such as MPEG4-AVC or MPEG2 on the stereoscopic image data processed by the video framing unit 112 to generate a video elementary stream. Further, the video encoder 113 divides the elementary stream of the video to generate a video PES (Packetized Elementary Stream) packet, and finally generates a video TS (Transport Stream) packet. Alternatively, it is multiplexed in a file container such as MP4, or generated so that a packet for real time is transmitted as a container.

視差ベクトル検出部114は、左眼画像データおよび右眼画像データに基づき、画像内の所定位置において、左眼画像および右眼画像の一方に対する他方の視差情報である視差ベクトルを検出する。ここで、画像内の所定位置は、全ての画素位置、複数画素からなる各領域の代表位置、あるいは、グラフィック情報やテキスト情報を重畳する領域の代表位置等である。   The disparity vector detection unit 114 detects a disparity vector that is disparity information of the other of the left eye image and the right eye image at a predetermined position in the image based on the left eye image data and the right eye image data. Here, the predetermined position in the image is all pixel positions, a representative position of each area composed of a plurality of pixels, or a representative position of an area where graphic information or text information is superimposed.

[視差ベクトルの検出]
視差ベクトルの検出例について説明する。ここでは、左眼画像に対する右眼画像の視差ベクトルを検出する例について説明する。図5に示すように、左眼画像を検出画像とし、右眼画像を参照画像とする。この例では、(xi,yi)および(xj,yj)の位置における視差ベクトルが検出される。
[Disparity vector detection]
A detection example of a disparity vector will be described. Here, an example in which the parallax vector of the right eye image with respect to the left eye image is detected will be described. As shown in FIG. 5, the left eye image is a detected image, and the right eye image is a reference image. In this example, the disparity vectors at the positions (xi, yi) and (xj, yj) are detected.

(xi,yi)の位置における視差ベクトルを検出する場合を例にとって説明する。この場合、左眼画像に、(xi,yi)の位置の画素を左上とする、例えば8*8あるいは16*16の画素ブロック(視差検出ブロック)Biが設定される。そして、右眼画像において、画素ブロックBiとマッチングする画素ブロックが探索される。   A case where a disparity vector at the position (xi, yi) is detected will be described as an example. In this case, for example, an 8 * 8 or 16 * 16 pixel block (parallax detection block) Bi is set in the left eye image with the pixel at the position (xi, yi) at the upper left. Then, a pixel block matching the pixel block Bi is searched in the right eye image.

この場合、右眼画像に、(xi,yi)の位置を中心とする探索範囲が設定され、その探索範囲内の各画素を順次注目画素として、上述の画素ブロックBiと同様の例えば8*8あるいは16*16の比較ブロックが順次設定されていく。   In this case, a search range centered on the position (xi, yi) is set in the right-eye image, and each pixel in the search range is sequentially set as a pixel of interest, for example, 8 * 8 similar to the pixel block Bi described above. Alternatively, 16 * 16 comparison blocks are sequentially set.

画素ブロックBiと順次設定される比較ブロックとの間で、対応する画素毎の差分絶対値の総和が求められる。ここで、図6に示すように、画素ブロックBiの画素値をL(x,y)とし、比較ブロックの画素値をR(x,y)とするとき、画素ブロックBiと、ある比較ブロックとの間における差分絶対値の総和は、Σ|L(x,y)−R(x,y)|で表される。   Between the pixel block Bi and the sequentially set comparison blocks, the sum of absolute difference values for each corresponding pixel is obtained. Here, as shown in FIG. 6, when the pixel value of the pixel block Bi is L (x, y) and the pixel value of the comparison block is R (x, y), the pixel block Bi, a certain comparison block, The sum of absolute differences between the two is represented by Σ | L (x, y) −R (x, y) |.

右眼画像に設定される探索範囲にn個の画素が含まれているとき、最終的にn個の総和S1〜Snが求められ、その中で最小の総和Sminが選択される。そして、この総和Sminが得られた比較ブロックから左上の画素の位置が(xi′,yi′)が得られる。これにより、(xi,yi)の位置における視差ベクトルは、(xi′−xi,yi′−yi)のように検出される。詳細説明は省略するが、(xj,yj)の位置における視差ベクトルについても、左眼画像に、(xj,yj)の位置の画素を左上とする、例えば8*8あるいは16*16の画素ブロックBjが設定されて、同様の処理過程で検出される。   When n pixels are included in the search range set in the right eye image, n total sums S1 to Sn are finally obtained, and the minimum sum Smin is selected. Then, the position of the upper left pixel (xi ′, yi ′) is obtained from the comparison block from which the sum Smin is obtained. Thereby, the disparity vector at the position (xi, yi) is detected as (xi′−xi, yi′−yi). Although detailed description is omitted, for the disparity vector at the position (xj, yj), for example, an 8 * 8 or 16 * 16 pixel block in the left-eye image with the pixel at the position (xj, yj) at the upper left Bj is set and detected in the same process.

図7(a)は、視差ベクトル検出部114で検出される、画像内の所定位置おける視差ベクトルVVの一例を示している。この場合、図7(b)に示すように、この画像内の所定位置においては、左眼画像(検出画像)を視差ベクトルVVだけずらすと、右眼画像(参照画像)と重なることを意味する。   FIG. 7A shows an example of the parallax vector VV detected by the parallax vector detection unit 114 at a predetermined position in the image. In this case, as shown in FIG. 7B, if the left eye image (detected image) is shifted by the parallax vector VV at a predetermined position in the image, it means that it overlaps with the right eye image (reference image). .

図2に戻って、視差ベクトルエンコーダ115は、視差ベクトル検出部114で検出された視差ベクトル等を含む視差ベクトルのエレメンタリーストリームを生成する。視差ベクトルエレメンタリーストリームはビデオのエレメンタリーストリームなどと共にTSパケットを構成する。   Returning to FIG. 2, the disparity vector encoder 115 generates an elementary stream of disparity vectors including the disparity vector detected by the disparity vector detection unit 114. The disparity vector elementary stream constitutes a TS packet together with a video elementary stream and the like.

ここで、視差ベクトルのエレメンタリーストリームには、以下の内容が含まれる。すなわち、視差検出ブロックのID(ID_Block)、視差検出ブロックの垂直位置情報(VerticaL_Position)、視差検出ブロックの水平位置情報(Horizontal_Position)、視差ベクトル(View_Vector)が1セットとされる。そして、このセットが視差検出ブロックの数Nの分だけ繰り返される。図8は、視差ベクトルの伝送内容を示している。   Here, the elementary stream of disparity vectors includes the following contents. That is, the ID (ID_Block) of the parallax detection block, the vertical position information (VerticaL_Position) of the parallax detection block, the horizontal position information (Horizontal_Position) of the parallax detection block, and the parallax vector (View_Vector) are set as one set. This set is repeated for the number N of parallax detection blocks. FIG. 8 shows the transmission content of the disparity vector.

なお、視差検出ブロックの垂直、水平の位置は、画像の左上の原点から、ブロックの左上の画素までの垂直方向、水平方向のオフセット値となる。各視差ベクトルの伝送に、視差検出ブロックのIDを付すのは、画像に重畳表示させるグラフィクス情報、テキスト情報等の重畳情報のパターンとのリンクがとれるようにするためである。   Note that the vertical and horizontal positions of the parallax detection block are offset values in the vertical and horizontal directions from the upper left origin of the image to the upper left pixel of the block. The reason why the ID of the parallax detection block is attached to the transmission of each parallax vector is to allow a link to a superimposition information pattern such as graphics information and text information to be superimposed on the image.

例えば、図9(a)に示すように、A〜Fまでの視差検出ブロックが存在するとき、伝送内容には、図9(b)に示すように、その視差検出ブロックA〜FのIDと、垂直、水平の位置情報と、視差ベクトルが含まれる。例えば、図9(b)において、視差検出ブロックAに関しては、ID2は視差検出ブロックAのIDを示し、(Ha,Va)は視差検出ブロックAの垂直、水平の位置情報を示し、視差ベクトルaは視差検出ブロックAの視差ベクトルを示している。   For example, as shown in FIG. 9A, when there are parallax detection blocks A to F, the transmission contents include the IDs of the parallax detection blocks A to F as shown in FIG. , Vertical and horizontal position information, and disparity vectors. For example, in FIG. 9B, regarding the disparity detection block A, ID2 indicates the ID of the disparity detection block A, (Ha, Va) indicates the vertical and horizontal position information of the disparity detection block A, and the disparity vector a Indicates a disparity vector of the disparity detection block A.

ここで、視差ベクトルを検出して伝送するタイミングについて説明する。このタイミングに関しては、例えば、以下の第1〜第4の例が考えられる。   Here, the timing for detecting and transmitting the parallax vector will be described. Regarding this timing, for example, the following first to fourth examples can be considered.

第1の例においては、図10(a)に示すように、ピクチャの符号化に同期させる。この場合、視差ベクトルは、ピクチャ単位で伝送される。このピクチャ単位は、視差ベクトルを伝送する際のもっとも細かい単位である。第2の例においては、図10(b)に示すように、ビデオのシーンに同期させる。この場合、視差ベクトルは、シーン単位で伝送される。   In the first example, as shown in FIG. 10A, synchronization with picture coding is performed. In this case, the disparity vector is transmitted in units of pictures. This picture unit is the finest unit for transmitting a disparity vector. In the second example, as shown in FIG. 10B, it is synchronized with a video scene. In this case, the disparity vector is transmitted in scene units.

第3の例においては、図10(c)に示すように、符号化ビデオのIピクチャ(Intra picture)に同期させる。第4の例においては、図11に示すように、画像に重畳表示されるグラフィクス情報、テキスト情報等の表示開始タイミングに同期させる。   In the third example, as shown in FIG. 10 (c), it is synchronized with the I picture (Intra picture) of the encoded video. In the fourth example, as shown in FIG. 11, the display is synchronized with the display start timing of graphics information, text information, and the like superimposed on the image.

図2に戻って、マイクロホン116は、カメラ111L,111Rで撮影された画像に対応した音声を検出して、音声データを得る。オーディオエンコーダ117は、マイクロホン116で得られた音声データに対して、MPEG−2 Audio AAC等の圧縮符号化を施し、オーディオのエレメンタリーストリームを生成する。さらに、オーディオエンコーダ117は、このオーディオのエレメンタリーストリームを分割してオーディオのPESパケットを生成し、最終的にTSパケットを生成する。   Returning to FIG. 2, the microphone 116 detects sound corresponding to the images photographed by the cameras 111 </ b> L and 111 </ b> R, and obtains sound data. The audio encoder 117 performs compression encoding such as MPEG-2 Audio AAC on the audio data obtained by the microphone 116 to generate an audio elementary stream. Further, the audio encoder 117 divides the audio elementary stream to generate an audio PES packet, and finally generates a TS packet.

グラフィクス発生部118は、画像に重畳するグラフィクス情報のデータ(グラフィクスデータ)を発生する。グラフィクス情報は、例えば字幕などである。このグラフィクスデータは、ビットマップデータである。このグラフィクスデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。このアイドリングオフセット情報は、例えば、画像の左上の原点から、グラフィクス情報の重畳位置の左上の画素までの垂直方向、水平方向のオフセット値を示す。なお、字幕データをビットマップデータとして伝送する規格は、ヨーロッパのデジタル放送規格であるDVBでDVB_Subtitlingとして規格化され、運用されている。   The graphics generation unit 118 generates graphics information data (graphics data) to be superimposed on the image. The graphics information is, for example, captions. This graphics data is bitmap data. The graphics data is added with idling offset information indicating the superimposed position on the image. The idling offset information indicates, for example, offset values in the vertical direction and the horizontal direction from the upper left origin of the image to the upper left pixel of the superimposed position of the graphics information. The standard for transmitting caption data as bitmap data is standardized and operated as DVB_Subtitling in DVB, which is a European digital broadcasting standard.

グラフィクスエンコーダ119は、グラフィクス発生部118で発生されたグラフィクスデータのエレメンタリーストリームを生成する。そして、グラフィクスエンコーダ119は、最終的に上述のTSパケットを生成する。   The graphics encoder 119 generates an elementary stream of graphics data generated by the graphics generation unit 118. Then, the graphics encoder 119 finally generates the above-described TS packet.

テキスト発生部120は、画像に重畳するテキスト情報のデータ(テキストデータ)を発生する。テキスト情報は、例えば電子番組表、文字放送内容などである。このテキストデータには、上述のグラフィクスデータと同様に、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。このアイドリングオフセット情報は、例えば、画像の左上の原点から、テキスト情報の重畳位置の左上の画素までの垂直方向、水平方向のオフセット値を示す。なお、テキストデータを伝送する例としては、番組予約として運用されているEPG、アメリカのデジタル地上波規格ATSCのCC_data(Closed Caption)がある。   The text generator 120 generates text information data (text data) to be superimposed on the image. The text information is, for example, an electronic program guide or text broadcast content. As with the above-described graphics data, idling offset information indicating the superimposed position on the image is added to the text data. This idling offset information indicates, for example, offset values in the vertical and horizontal directions from the upper left origin of the image to the upper left pixel of the text information overlapping position. Examples of text data transmission include EPG used as a program reservation and CC_data (Closed Caption) of the American digital terrestrial standard ATSC.

テキストエンコーダ121は、テキスト発生部120で発生されたテキストデータのエレメンタリーストリームを生成する。   The text encoder 121 generates an elementary stream of text data generated by the text generator 120.

マルチプレクサ122は、ビデオエンコーダ113、視差ベクトルエンコーダ115、オーディオエンコーダ117,グラフィクスエンコーダ119およびテキストエンコーダ121の各エンコーダから出力されるパケット化されたエレメンタリーストリームを多重化する。そして、このマルチプレクサ122は、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDを出力する。   The multiplexer 122 multiplexes packetized elementary streams output from the encoders of the video encoder 113, the disparity vector encoder 115, the audio encoder 117, the graphics encoder 119, and the text encoder 121. The multiplexer 122 outputs bit stream data (transport stream) BSD as transmission data.

図2に示す送信データ生成部110の動作を簡単に説明する。カメラ111Lでは、左眼画像が撮影される。このカメラ111Lで得られる立体画像表示のための左眼画像データはビデオフレーミング部112に供給される。また、カメラ111Rでは、右眼画像が撮影される。このカメラ111Rで得られる立体画像表示のための右眼画像データはビデオフレーミング部112に供給される。ビデオフレーミング部112では、左眼画像データおよび右眼画像データが、伝送方式に応じた状態に加工処理されて、立体画像データが得られる(図4(a)〜(c)参照)。   The operation of the transmission data generation unit 110 shown in FIG. 2 will be briefly described. The camera 111L captures a left eye image. The left eye image data for stereoscopic image display obtained by the camera 111L is supplied to the video framing unit 112. In addition, the camera 111R captures a right eye image. Right-eye image data for stereoscopic image display obtained by the camera 111R is supplied to the video framing unit 112. In the video framing unit 112, the left-eye image data and the right-eye image data are processed into a state corresponding to the transmission method to obtain stereoscopic image data (see FIGS. 4A to 4C).

ビデオフレーミング部112で得られる立体画像データはビデオエンコーダ113に供給される。このビデオエンコーダ113では、立体画像データに対してMPEG4−AVC、あるいはMPEG2等の圧縮符号化が施され、ビデオのエレメンタリーストリームが生成され、最終的にビデオパケットは、マルチプレクサ122に供給される。   Stereoscopic image data obtained by the video framing unit 112 is supplied to the video encoder 113. In the video encoder 113, compression encoding such as MPEG4-AVC or MPEG2 is performed on the stereoscopic image data, a video elementary stream is generated, and finally the video packet is supplied to the multiplexer 122.

また、カメラ111L,111Rで得られた左眼画像データ、右眼画像データは、ビデオフレーミング部112を通じて、視差ベクトル検出部114に供給される。この視差ベクトル検出部114では、左眼画像データおよび右眼画像データに基づき、画像内の所定位置において、視差検出ブロックが設定され、左眼画像および右眼画像の一方に対する他方の視差情報である視差ベクトルが検出される。   Further, the left eye image data and the right eye image data obtained by the cameras 111L and 111R are supplied to the parallax vector detection unit 114 through the video framing unit 112. In the disparity vector detection unit 114, a disparity detection block is set at a predetermined position in the image based on the left eye image data and the right eye image data, and is the other disparity information for one of the left eye image and the right eye image. A disparity vector is detected.

視差ベクトル検出部114で検出された画像内の所定位置における視差ベクトルは、視差ベクトルエンコーダ115に供給される。この場合、視差検出ブロックのID、視差検出ブロックの垂直位置情報、視差検出ブロックの水平位置情報、視差ベクトルが1セットとして渡される。視差ベクトルエンコーダ115では、視差ベクトルの伝送内容(図8参照)を含む視差ベクトルのエレメンタリーストリームが生成され、マルチプレクサ122に供給される。   The disparity vector at a predetermined position in the image detected by the disparity vector detection unit 114 is supplied to the disparity vector encoder 115. In this case, the ID of the parallax detection block, the vertical position information of the parallax detection block, the horizontal position information of the parallax detection block, and the parallax vector are passed as one set. In the disparity vector encoder 115, an elementary stream of disparity vectors including disparity vector transmission content (see FIG. 8) is generated and supplied to the multiplexer 122.

また、マイクロホン116では、カメラ111L,111Rで撮影された画像に対応した音声が検出される。このマイクロホン116で得られる音声データはオーディオエンコーダ117に供給される。このオーディオエンコーダ117では、音声データに対して、MPEG−2 Audio AAC等の圧縮符号化が施され、オーディオのエレメンタリーストリームが生成され、マルチプレクサ122に供給される。   Further, the microphone 116 detects sound corresponding to the images photographed by the cameras 111L and 111R. Audio data obtained by the microphone 116 is supplied to the audio encoder 117. The audio encoder 117 performs compression encoding such as MPEG-2 Audio AAC on the audio data, generates an audio elementary stream, and supplies it to the multiplexer 122.

また、グラフィクス発生部118では、画像に重畳するグラフィクス情報のデータ(グラフィクスデータ)が発生される。このグラフィクスデータ(ビットマップデータ)は、グラフィクスエンコーダ119に供給される。このグラフィクスデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。グラフィクスエンコーダ119では、このグラフィクスデータに対して所定の圧縮符号化が施されてエレメンタリーストリームが生成され、マルチプレクサ122に供給される。   Further, the graphics generator 118 generates graphics information data (graphics data) to be superimposed on the image. This graphics data (bitmap data) is supplied to the graphics encoder 119. The graphics data is added with idling offset information indicating the superimposed position on the image. In the graphics encoder 119, predetermined compression coding is performed on the graphics data to generate an elementary stream, which is supplied to the multiplexer 122.

また、テキスト発生部120では、画像に重畳するテキスト情報のデータ(テキストデータ)が発生される。このテキストデータは、テキストエンコーダ121に供給される。このテキストデータには、上述のグラフィクスデータと同様に、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。テキストエンコーダ121では、このテキストデータに対して所定の圧縮符号化が施されてエレメンタリーストリームが生成され、最終的にテキストのTSパケットが得られる。このテキストのTSパケットは、マルチプレクサ122に供給される。   The text generator 120 generates text information data (text data) to be superimposed on the image. This text data is supplied to the text encoder 121. As with the above-described graphics data, idling offset information indicating the superimposed position on the image is added to the text data. In the text encoder 121, the text data is subjected to predetermined compression encoding to generate an elementary stream, and finally a text TS packet is obtained. The text TS packet is supplied to the multiplexer 122.

マルチプレクサ122では、各エンコーダから供給されるエレメンタリーストリームのパケットが多重化され、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDが得られる。   The multiplexer 122 multiplexes the elementary stream packets supplied from the encoders to obtain bit stream data (transport stream) BSD as transmission data.

図12は、図2に示す送信データ生成部110において多重化される各データのストリーム例を示している。なお、この例は、視差ベクトルが、ビデオのシーン単位で検出されて伝送される場合(図10(b)参照)を示している。なお、各ストリームのパケットには、同期表示用のタイムスタンプが付され、受信側で、画像に対して、グラフィクス情報、テキスト情報等の重畳タイミングを制御することが可能となっている。   FIG. 12 illustrates an example of each data stream multiplexed in the transmission data generation unit 110 illustrated in FIG. This example shows a case where a disparity vector is detected and transmitted in units of video scenes (see FIG. 10B). Each stream packet is given a time stamp for synchronous display, and the reception side can control the superimposition timing of graphics information, text information, and the like on the image.

なお、上述の図2に示す送信データ生成部110は、視差ベクトルの伝送内容(図8参照)を独立したエレメンタリーストリームとして受信側に伝送する構成となっている。しかし、視差ベクトルの伝送内容を他のストリームの中に埋め込んで伝送することも考えられる。例えば、視差ベクトルの伝送内容は、ビデオのストリームにユーザデータとして埋め込まれて伝送される。また、例えば、視差ベクトルの伝送内容は、グラフィクス、あるいはテキストのストリームに埋め込まれて伝送される。   2 is configured to transmit disparity vector transmission content (see FIG. 8) to the receiving side as an independent elementary stream. However, it is also conceivable that the transmission content of the disparity vector is embedded in another stream for transmission. For example, the transmission content of the disparity vector is embedded and transmitted as user data in a video stream. Also, for example, the transmission content of the disparity vector is transmitted by being embedded in a graphics or text stream.

図13は、送信データ生成部110Aの構成例を示している。この例も、視差ベクトルを数値情報として送信する例である。この送信データ生成部110Aは、視差ベクトルの伝送内容を、ビデオのストリームにユーザデータとして埋め込んで伝送する構成となっている。この図13において、図2と対応する部分には同一符号を付し、その詳細説明は省略する。   FIG. 13 illustrates a configuration example of the transmission data generation unit 110A. This example is also an example in which a disparity vector is transmitted as numerical information. This transmission data generation unit 110A is configured to transmit the transmission content of the disparity vector by embedding it in the video stream as user data. In FIG. 13, parts corresponding to those in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted.

この送信データ生成部110Aは、ビデオエンコーダ113とマルチプレクサ122との間に、ストリームフレーミング部123が挿入されている。視差ベクトル検出114で検出された画像内の所定位置における視差ベクトルは、ストリームフレーミング部123に供給される。この場合、視差検出ブロックのID、視差検出ブロックの垂直位置情報、視差検出ブロックの水平位置情報、視差ベクトルが1セットとして渡される。   In the transmission data generation unit 110A, a stream framing unit 123 is inserted between the video encoder 113 and the multiplexer 122. The disparity vector at a predetermined position in the image detected by the disparity vector detection 114 is supplied to the stream framing unit 123. In this case, the ID of the parallax detection block, the vertical position information of the parallax detection block, the horizontal position information of the parallax detection block, and the parallax vector are passed as one set.

ストリームフレーミング部123では、ビデオのストリームに、視差ベクトルの伝送内容(図8参照)が、ユーザデータとして埋め込まれる。   In the stream framing unit 123, the transmission content of the disparity vector (see FIG. 8) is embedded as user data in the video stream.

詳細説明は省略するが、この図13に示す送信データ生成部110Aのその他は、図2に示す送信データ生成部110と同様に構成されている。   Although the detailed description is omitted, the transmission data generation unit 110A shown in FIG. 13 is otherwise configured in the same manner as the transmission data generation unit 110 shown in FIG.

また、上述の図2に示す送信データ生成部110および上述の図13に示す送信データ生成部110Aは、視差ベクトルを数値情報として送信する(図8参照)。しかし、視差ベクトルを数値情報として伝送する代わりに、画像に重畳するための重畳情報(例えば、グラフィクス情報、テキスト情報等)のデータに含めて送信することも考えられる。   Also, the transmission data generation unit 110 shown in FIG. 2 and the transmission data generation unit 110A shown in FIG. 13 transmit the disparity vector as numerical information (see FIG. 8). However, instead of transmitting the parallax vector as numerical information, it is also conceivable to transmit it by including it in data of superimposition information (for example, graphics information, text information, etc.) to be superimposed on the image.

例えば、グラフィクス情報のデータに含めて送信する場合、送信側で、左眼画像に重畳すべき左眼グラフィクス情報と右眼画像に重畳すべき右眼グラフィクス情報の双方に対応したグラフィクスデータが生成される。この場合、左眼グラフィクス情報および右眼グラフィクス情報は同一のグラフィクス情報である。しかし、画像内の表示位置が、例えば、左眼グラフィクス情報に対して、右眼グラフィクス情報は、その表示位置に対応した視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。   For example, when transmitting by including the graphics information data, the transmission side generates graphics data corresponding to both the left-eye graphics information to be superimposed on the left-eye image and the right-eye graphics information to be superimposed on the right-eye image. The In this case, the left eye graphics information and the right eye graphics information are the same graphics information. However, the display position in the image is shifted in the horizontal direction by, for example, the horizontal component of the parallax vector corresponding to the display position of the right-eye graphics information with respect to the left-eye graphics information.

また、例えば、テキスト情報のデータに含めて送信する場合、送信側で、左眼画像に重畳すべき左眼テキスト情報と右眼画像に重畳すべき右眼テキスト情報の双方に対応したテキストデータが生成される。この場合、左眼テキスト情報および右眼テキスト情報は同一のテキスト情報である。しかし、画像内の重畳位置が、例えば、左眼テキスト情報に対して、右眼テキスト情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。   In addition, for example, when transmitting by including in text information data, on the transmitting side, text data corresponding to both left eye text information to be superimposed on the left eye image and right eye text information to be superimposed on the right eye image is provided. Generated. In this case, the left eye text information and the right eye text information are the same text information. However, the superimposed position in the image is shifted in the horizontal direction by the horizontal component of the parallax vector, for example, with respect to the left-eye text information.

例えば、視差ベクトルとしては、画像内の複数位置で検出された視差ベクトルのうち、その重畳位置に対応したものが使用される。また、例えば、視差ベクトルとしては、画像内の複数位置で検出された視差ベクトルのうち、遠近感でいうところの最も近く認識される位置の視差ベクトルが使用される。   For example, as the parallax vector, a parallax vector detected at a plurality of positions in the image corresponding to the superimposed position is used. Further, for example, as the parallax vector, a parallax vector at a position that is recognized closest in terms of perspective among parallax vectors detected at a plurality of positions in the image is used.

図14(a)は、伝送方式が上述の第1の伝送方式(「Top & Bottom」方式)である場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置を示している。これら左眼グラフィクス情報および右眼グラフィクス情報は同一の情報である。ただし、左眼画像IL上に重畳される左眼グラフィクス情報LGIに対して、右眼画像IR上に重畳される右眼グラフィクス情報RGIは、視差ベクトルの水平方向成分VVTだけ水平方向にずれた位置とされている。   FIG. 14A shows the superimposed positions of left-eye graphics information and right-eye graphics information when the transmission method is the above-described first transmission method (“Top & Bottom” method). These left-eye graphics information and right-eye graphics information are the same information. However, with respect to the left eye graphics information LGI superimposed on the left eye image IL, the right eye graphics information RGI superimposed on the right eye image IR is shifted in the horizontal direction by the horizontal component VVT of the parallax vector. It is said that.

各画像IL,IRに対して、図14(a)に示すように、各グラフィクス情報LGI,RGIが重畳されるように、グラフィクスデータが生成される。これにより、視聴者は、図14(b)に示すように、各画像IL,IRと共に、各グラフィクス情報LGI,RGIを、視差をもって観察でき、グラフィクス情報にも、遠近感を認知可能となる。   As shown in FIG. 14A, graphics data is generated so that the graphics information LGI and RGI are superimposed on the images IL and IR. Accordingly, as shown in FIG. 14B, the viewer can observe the graphics information LGI and RGI together with the images IL and IR with parallax, and can recognize the perspective in the graphics information.

例えば、各グラフィクス情報LGI,RGIのグラフィクスデータは、図15(a)に示すように、単一領域のデータとして生成される。この場合、各グラフィクス情報LGI,RGI以外の部分のデータは、透明データとして生成されればよい。また、例えば、各グラフィクス情報LGI,RGIのグラフィクスデータは、図15(b)に示すように、別領域のデータとして生成される。   For example, the graphics data of each graphics information LGI, RGI is generated as single area data as shown in FIG. In this case, the data other than the graphics information LGI and RGI may be generated as transparent data. Further, for example, the graphics data of each graphics information LGI, RGI is generated as data of another area as shown in FIG.

図16(a)は、伝送方式が上述の第2の伝送方式(「Side By Side」方式)である場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置を示している。これら左眼グラフィクス情報および右眼グラフィクス情報は同一の情報である。ただし、左眼画像IL上に重畳される左眼グラフィクス情報LGIに対して、右眼画像IR上に重畳される右眼グラフィクス情報RGIは、視差ベクトルの水平方向成分VVTだけ水平方向にずれた位置とされている。なお、ITは、アイドリングオフセット値である。   FIG. 16A shows the superimposed positions of left-eye graphics information and right-eye graphics information when the transmission method is the above-described second transmission method (“Side By Side” method). These left-eye graphics information and right-eye graphics information are the same information. However, with respect to the left eye graphics information LGI superimposed on the left eye image IL, the right eye graphics information RGI superimposed on the right eye image IR is shifted in the horizontal direction by the horizontal component VVT of the parallax vector. It is said that. IT is an idling offset value.

各画像IL,IRに対して、図16(a)に示すように、各グラフィクス情報LGI,RGIが重畳されるように、グラフィクスデータが生成される。これにより、視聴者は、図16(b)に示すように、各画像IL,IRと共に、各グラフィクス情報LGI,RGIを、視差をもって観察でき、グラフィクス情報にも、遠近感を認知可能となる。   As shown in FIG. 16A, graphics data is generated so that the graphics information LGI and RGI are superimposed on the images IL and IR. Thus, as shown in FIG. 16B, the viewer can observe the graphics information LGI and RGI together with the images IL and IR with parallax, and can recognize the perspective in the graphics information.

例えば、各グラフィクス情報LGI,RGIのグラフィクスデータは、図17に示すように、単一領域のデータとして生成される。この場合、各グラフィクス情報LGI,RGI以外の部分のデータは、透明データとして生成されればよい。   For example, the graphics data of each graphics information LGI and RGI is generated as single area data as shown in FIG. In this case, the data other than the graphics information LGI and RGI may be generated as transparent data.

図18は、送信データ生成部110Bの構成例を示している。この送信データ生成部110Bは、視差ベクトルを、グラフィクス情報、テキスト情報のデータに含めて送信する構成となっている。この図18において、図2と対応する部分には同一符号を付し、その詳細説明は省略する。   FIG. 18 illustrates a configuration example of the transmission data generation unit 110B. This transmission data generation unit 110B is configured to transmit a disparity vector included in data of graphics information and text information. In FIG. 18, the same reference numerals are given to the portions corresponding to those in FIG.

この送信データ生成部110Bでは、グラフィクス発生部118とグラフィクスエンコーダ119との間に、グラフィクス処理部124が挿入されている。また、この送信データ生成部110Bでは、テキスト発生部120とテキストエンコーダ121との間に、テキスト処理部125が挿入されている。そして、視差ベクトル検出114で検出された画像内の所定位置における視差ベクトルは、グラフィクス処理部124およびテキスト処理部125に供給される。   In the transmission data generation unit 110B, a graphics processing unit 124 is inserted between the graphics generation unit 118 and the graphics encoder 119. In the transmission data generation unit 110B, a text processing unit 125 is inserted between the text generation unit 120 and the text encoder 121. Then, the parallax vector at a predetermined position in the image detected by the parallax vector detection 114 is supplied to the graphics processing unit 124 and the text processing unit 125.

グラフィクス処理部124では、グラフィクス発生部118で発生されるグラフィクスデータに基づいて、左眼画像IL上に重畳される左眼グラフィクス情報LGIのデータおよび右眼画像IR上に重畳される右眼グラフィクス情報RGIのデータが生成される。この場合、左眼グラフィクス情報および右眼グラフィクス情報は同一のグラフィクス情報であるが、画像内の重畳位置が、例えば、左眼グラフィクス情報に対して、右眼グラフィクス情報は、視差ベクトルの水平方向成分VVTだけ、水平方向にずれるようにされる(図14(a)、図16(a)参照)。   In the graphics processing unit 124, based on the graphics data generated by the graphics generating unit 118, the data of the left eye graphics information LGI superimposed on the left eye image IL and the right eye graphics information superimposed on the right eye image IR. RGI data is generated. In this case, the left-eye graphics information and the right-eye graphics information are the same graphics information, but the superimposed position in the image is, for example, the left-eye graphics information, and the right-eye graphics information is the horizontal component of the disparity vector. Only VVT is shifted in the horizontal direction (see FIGS. 14A and 16A).

このようにグラフィクス処理部124で生成されたグラフィクスデータは、グラフィクスエンコーダ119に供給される。なお、このグラフィクスデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。グラフィクスエンコーダ119では、グラフィクス処理部124で生成されたグラフィクスデータのエレメンタリーストリームが生成される。   Thus, the graphics data generated by the graphics processing unit 124 is supplied to the graphics encoder 119. Note that idling offset information indicating the superimposed position on the image is added to the graphics data. In the graphics encoder 119, an elementary stream of graphics data generated by the graphics processing unit 124 is generated.

また、テキスト処理部125では、テキスト発生部120で発生されるテキストデータに基づいて、左眼画像上に重畳される左眼テキスト情報のデータおよび右眼画像上に重畳される右眼テキスト情報のデータが生成される。この場合、左眼テキスト情報および右眼テキスト情報は同一のテキスト情報であるが、画像内の重畳位置が、例えば、左眼テキスト情報に対して、右眼テキスト情報は、視差ベクトルの水平方向成分VVTだけ、水平方向にずれるようにされる。   Also, the text processing unit 125, based on the text data generated by the text generation unit 120, the left-eye text information data superimposed on the left-eye image and the right-eye text information superimposed on the right-eye image. Data is generated. In this case, the left-eye text information and the right-eye text information are the same text information, but the superimposed position in the image is, for example, the left-eye text information, and the right-eye text information is the horizontal component of the disparity vector. Only VVT is shifted in the horizontal direction.

このようにテキスト処理部125で生成されたテキストデータは、テキストエンコーダ121に供給される。なお、このテキストデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。テキストエンコーダ121では、テキスト処理部で生成されたテキストスデータのエレメンタリーストリームが生成される。   Thus, the text data generated by the text processing unit 125 is supplied to the text encoder 121. Note that idling offset information indicating the superimposed position on the image is added to the text data. The text encoder 121 generates an elementary stream of text data generated by the text processing unit.

詳細説明は省略するが、この図18に示す送信データ生成部110Bのその他は、図2に示す送信データ生成部110と同様に構成されている。   Although detailed description is omitted, the other parts of the transmission data generation unit 110B shown in FIG. 18 are configured in the same manner as the transmission data generation unit 110 shown in FIG.

[セットトップボックスの説明]
図1に戻って、セットトップボックス200は、放送局100から放送波にのせて送信されてくるビットストリームデータ(トランスポートストリーム)を受信する。このビットストリームデータには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、グラフィクスデータ、テキストデータ、さらには視差情報としての視差ベクトルが含まれる
[Description of Set Top Box]
Returning to FIG. 1, the set-top box 200 receives bit stream data (transport stream) transmitted from the broadcast station 100 on a broadcast wave. This bit stream data includes stereoscopic image data including left-eye image data and right-eye image data, audio data, graphics data, text data, and a disparity vector as disparity information.

セットトップボックス200は、ビットストリーム処理部201を有している。このビットストリーム処理部201は、ビットストリームデータから、立体画像データ、音声データ、グラフィクスデータ、テキストデータ、視差ベクトル等を抽出する。また、このビットストリーム処理部201は、立体画像データ、グラフィクスデータ、テキストデータ等を用いて、重畳情報が重畳された左眼画像および右眼画像のデータを生成する。   The set top box 200 has a bit stream processing unit 201. The bit stream processing unit 201 extracts stereoscopic image data, audio data, graphics data, text data, disparity vectors, and the like from the bit stream data. In addition, the bit stream processing unit 201 generates left-eye image data and right-eye image data on which superimposition information is superimposed, using stereoscopic image data, graphics data, text data, and the like.

ここで、視差ベクトルが数値情報として送信されてくる場合には、視差ベクトルとグラフィクスデータに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼グラフィクス情報、右眼グラフィクス情報を生成する。この場合、左眼グラフィクス情報および右眼グラフィクス情報は同一のグラフィクス情報である。しかし、画像内の重畳位置が、例えば、左眼グラフィクス情報に対して、右眼グラフィクス情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。   Here, when the disparity vector is transmitted as numerical information, left-eye graphics information and right-eye graphics information to be superimposed on the left-eye image and the right-eye image are generated based on the disparity vector and the graphics data. In this case, the left eye graphics information and the right eye graphics information are the same graphics information. However, the superposition position in the image is shifted in the horizontal direction by the horizontal component of the parallax vector, for example, with respect to the left-eye graphics information.

図19(a)は、伝送方式が上述の第2の伝送方式(「Side By Side」方式)である場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置を示している。   FIG. 19A shows the superimposed positions of left-eye graphics information and right-eye graphics information when the transmission method is the above-described second transmission method (“Side By Side” method).

左眼画像IL上に重畳される左眼グラフィクス情報LGIに対して、右眼画像IR上に重畳される右眼グラフィクス情報RGIは、視差ベクトルの水平方向成分VVTだけ水平方向にずれた位置とされている。なお、ITは、アイドリングオフセット値である。   In contrast to the left-eye graphics information LGI superimposed on the left-eye image IL, the right-eye graphics information RGI superimposed on the right-eye image IR is set at a position shifted in the horizontal direction by the horizontal component VVT of the parallax vector. ing. IT is an idling offset value.

各画像IL,IRに対して、図19(a)に示すように、各グラフィクス情報LGI,RGIが重畳されるように、グラフィクスデータが生成される。   As shown in FIG. 19A, graphics data is generated so that the graphics information LGI and RGI are superimposed on the images IL and IR.

ビットストリーム処理部201は、ビットストリームデータから抽出された立体画像データ(左眼画像データ、右眼画像データ)に対して、生成された左眼グラフィクスデータ、右眼グラフィクスデータを合成して、処理後の立体画像データを取得する。この立体画像データによれば、視聴者は、図19(b)に示すように、各画像IL,IRと共に、各グラフィクス情報LGI,RGIを、視差をもって観察でき、グラフィクス情報にも、遠近感を認知可能となる。   The bit stream processing unit 201 combines the generated left eye graphics data and right eye graphics data with the stereoscopic image data (left eye image data and right eye image data) extracted from the bit stream data, and performs processing Later stereo image data is acquired. According to this stereoscopic image data, as shown in FIG. 19B, the viewer can observe the graphics information LGI and RGI together with the images IL and IR with parallax, and the graphics information has a sense of perspective. It becomes possible to recognize.

なお、図20(a)は、各画像IL,IRに対して、ビットストリームデータから抽出されたグラフィクスデータによるグラフィクス画像をそのまま重畳した状態を示している。この場合、視聴者は、図20(b)に示すように、左眼画像ILと共にグラフィクス情報の左半分、右眼画像IRと共にグラフィクス情報の右半分を観察する。そのため、グラフィクス情報を正しく認識できなくなる。   FIG. 20A shows a state in which graphics images based on graphics data extracted from the bit stream data are directly superimposed on the images IL and IR. In this case, as shown in FIG. 20B, the viewer observes the left half of the graphics information together with the left eye image IL and the right half of the graphics information together with the right eye image IR. Therefore, the graphics information cannot be recognized correctly.

また、視差ベクトルが数値情報として送信されてくる場合には、視差ベクトルとテキストデータに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼テキスト情報、右眼テキスト情報を生成する。この場合、左眼テキスト情報および右眼テキスト情報は同一のテキスト情報である。しかし、画像内の重畳位置が、例えば、左眼テキスト情報に対して、右眼テキスト情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。   When the disparity vector is transmitted as numerical information, left-eye text information and right-eye text information to be superimposed on the left-eye image and right-eye image are generated based on the disparity vector and text data. In this case, the left eye text information and the right eye text information are the same text information. However, the superimposed position in the image is shifted in the horizontal direction by the horizontal component of the parallax vector, for example, with respect to the left-eye text information.

ビットストリーム処理部201は、ビットストリームデータから抽出された立体画像データ(左眼画像データ、右眼画像データ)に対して、生成された左眼テキスト情報および右眼テキスト情報のデータ(ビットマップデータ)を合成して、処理後の立体画像データを得る。この立体画像データによれば、視聴者は、上述したグラフィクス情報の場合と同様に、左眼画像、右眼画像と共に、各テキスト情報を、視差をもって観察でき、テキスト情報にも、遠近感を認知可能となる。   The bit stream processing unit 201 generates left eye text information and right eye text information data (bitmap data) for the stereoscopic image data (left eye image data, right eye image data) extracted from the bit stream data. ) To obtain stereoscopic image data after processing. According to this stereoscopic image data, the viewer can observe each text information with parallax together with the left eye image and the right eye image as in the case of the above-described graphics information, and also recognizes perspective in the text information. It becomes possible.

この場合、左眼グラフィクス情報と右眼グラフィクス情報との間、あるいは左眼テキスト情報と右眼テキスト情報との間に視差を与える視差ベクトルとしては、以下の視差ベクトルを用いることが考えられる。   In this case, the following disparity vectors may be used as disparity vectors that give disparity between left-eye graphics information and right-eye graphics information, or between left-eye text information and right-eye text information.

例えば、視差ベクトルとしては、画像内の複数位置で検出された視差ベクトルのうち、遠近感でいうところの最も近く認識される位置の視差ベクトルを使用することが考えられる。図21(a),(b),(c),(d)は、それぞれ時刻T0,T1,T2,T3における3つのオブジェクト位置の視差ベクトル(View Vector)を示している。   For example, as the disparity vector, it is conceivable to use the disparity vector at the closest recognized position in terms of perspective among the disparity vectors detected at a plurality of positions in the image. FIGS. 21A, 21B, 21C, and 21D show disparity vectors (view vectors) at three object positions at times T0, T1, T2, and T3, respectively.

時刻T0では、オブジェクト1に対応した位置(H0,V0)における視差ベクトルVV0-1が最大の視差ベクトルMaxVV(T0)となっている。時刻T1では、オブジェクト1に対応した位置(H1,V1)における視差ベクトルVV1-1が最大の視差ベクトルMaxVV(T1)となっている。時刻T2では、オブジェクト2に対応した位置(H2,V2)における視差ベクトルVV2-2が最大の視差ベクトルMaxVV(T2)となっている。時刻T3では、オブジェクト1に対応した位置(H3,V3)における視差ベクトルVV3-0が最大の視差ベクトルMaxVV(T3)となっている。   At time T0, the disparity vector VV0-1 at the position (H0, V0) corresponding to the object 1 is the maximum disparity vector MaxVV (T0). At time T1, the disparity vector VV1-1 at the position (H1, V1) corresponding to the object 1 is the maximum disparity vector MaxVV (T1). At time T2, the parallax vector VV2-2 at the position (H2, V2) corresponding to the object 2 is the maximum parallax vector MaxVV (T2). At time T3, the parallax vector VV3-0 at the position (H3, V3) corresponding to the object 1 is the maximum parallax vector MaxVV (T3).

このように、視差ベクトルとして、画像内の複数位置で検出された視差ベクトルのうち、遠近感でいうところの最も近く認識される位置の視差ベクトルを使用することで、遠近感でいうところの最も近い画像内の物体(オブジェクト)よりも手前に、グラフィクス情報、テキスト情報を表示することが可能となる。   Thus, by using the parallax vector at the closest recognized position among the parallax vectors detected at a plurality of positions in the image as the parallax vector, Graphics information and text information can be displayed in front of an object (object) in a close image.

図22(a)は、画像上における字幕(グラフィクス情報)の表示例を示している。この表示例では、背景と近景オブジェクトとからなる画像上に、字幕が重畳された例である。図22(b)は、背景、近景オブジェクト、字幕の遠近感を示し、字幕が最も近くにあるように認識されることを示している。   FIG. 22A shows a display example of captions (graphics information) on an image. In this display example, captions are superimposed on an image composed of a background and a foreground object. FIG. 22B shows the perspective of the background, the foreground object, and the caption, and indicates that the caption is recognized as being closest.

図23(a)は、図22(a)と同じ、画像上における字幕(グラフィクス情報)の表示例を示している。図23(b)は、字幕を表示するための左眼グラフィクス情報LGIと、右眼グラフィクス情報RGIを示している。そして、図23(c)は、字幕が最も近くにあるように認識されるために、各グラフィクス情報LGI,RGIに視差が与えられることを示している。   FIG. 23A shows a display example of captions (graphics information) on an image, which is the same as FIG. FIG. 23B shows left-eye graphics information LGI and right-eye graphics information RGI for displaying a caption. FIG. 23C shows that disparity is given to each piece of graphics information LGI and RGI in order to recognize that the caption is closest.

また、視差ベクトルとしては、画像内の複数位置で検出された視差ベクトルのうち、その重畳位置に対応したものを使用することが考えられる。図24(a)は、ビットストリームデータから抽出されるグラフィックデータによるグラフィック情報と、ビットストリームデータから抽出されるテキストデータによるテキスト情報を示している。   Further, as the parallax vector, it is conceivable to use a parallax vector detected at a plurality of positions in the image corresponding to the superimposed position. FIG. 24A shows graphic information based on graphic data extracted from bit stream data and text information based on text data extracted from bit stream data.

図24(b)は、左眼画像に、左眼グラフィクス情報LGIおよび左眼テキスト情報LTIが重畳された状態を示している。この場合、左眼グラフィクス情報LGIは、その重畳位置が水平方向にはアイドリングオフセット値(IT-0)で規制されている。また、左眼テキスト情報LTIは、その重畳位置が水平方向にはアイドリングオフセット値(IT-1)で規制されている。   FIG. 24B shows a state in which the left eye graphics information LGI and the left eye text information LTI are superimposed on the left eye image. In this case, in the left eye graphics information LGI, the superimposition position thereof is regulated by the idling offset value (IT-0) in the horizontal direction. Further, the left eye text information LTI has its superposition position regulated in the horizontal direction by an idling offset value (IT-1).

図24(c)は、右眼画像に、右眼グラフィクス情報RGIおよび右眼テキスト情報RTIが重畳された状態を示している。この場合、右眼グラフィクス情報RGIは、その重畳位置が水平方向にはアイドリングオフセット値(IT-0)で規制され、さらにこの重畳位置に対応した視差ベクトルの水平方向成分VVT-0だけ、左眼グラフィクス情報LGIの重畳位置よりずらされている。また、右眼テキスト情報RTIは、その重畳位置が水平方向にはアイドリングオフセット値(IT-1)で規制され、さらにこの重畳位置に対応した視差ベクトルの水平方向成分VVT-1だけ、左眼テキスト情報LTIの重畳位置よりずらされている。   FIG. 24C shows a state where the right eye graphics information RGI and the right eye text information RTI are superimposed on the right eye image. In this case, in the right eye graphics information RGI, the superimposition position is restricted by the idling offset value (IT-0) in the horizontal direction, and the horizontal component VVT-0 of the parallax vector corresponding to this superposition position is also set to the left eye. It is shifted from the superimposed position of the graphics information LGI. The right-eye text information RTI has its superposition position restricted by an idling offset value (IT-1) in the horizontal direction, and the left-eye text corresponding to the horizontal component VVT-1 of the parallax vector corresponding to this superposition position. It is shifted from the superimposed position of the information LTI.

なお、上述では、左眼画像および右眼画像に、ビットストリームデータから抽出されたグラフィクスデータによるグラフィクス情報、あるいはビットストリームデータから抽出されたテキストデータによるテキスト情報を重畳する場合を説明した。この他に、セットトップボックス200内でグラフィクスデータあるいはテキストデータが発生され、それらによる情報を、左眼画像および右眼画像に、重畳する場合も考えられる。   In the above description, a case has been described in which graphics information based on graphics data extracted from bit stream data or text information based on text data extracted from bit stream data is superimposed on the left eye image and right eye image. In addition, it is also conceivable that graphics data or text data is generated in the set-top box 200, and information based thereon is superimposed on the left eye image and the right eye image.

その場合にあっても、ビットストリームデータから抽出された画像内の所定位置の視差ベクトルを利用して、左眼グラフィクス情報と右眼グラフィクス情報との間、あるいは左眼テキスト情報と右眼テキスト情報との間に、視差を持たせることができる。これにより、グラフィクス情報、テキスト情報の表示において、画像内の各物体(オブジェクト)の遠近感との間で遠近感の整合性の維持を図った適切な遠近感を付与できる。   Even in that case, using the disparity vector at a predetermined position in the image extracted from the bit stream data, between the left eye graphics information and the right eye graphics information, or the left eye text information and the right eye text information A parallax can be given between the two. Thereby, in the display of graphics information and text information, it is possible to give an appropriate perspective that maintains the consistency of perspective with the perspective of each object (object) in the image.

図25(a)は、画像内にA,B,Cの各オブジェクトが存在し、例えば、これら各オブジェクトの近傍位置に、各オブジェクトの注釈を示すテキスト情報を重畳することを示している。   FIG. 25A shows that the objects A, B, and C exist in the image, and, for example, text information indicating the annotation of each object is superimposed on the vicinity of each object.

図25(b)は、A,B,Cの各オブジェクトの位置と、その位置における視差ベクトルの対応を示す視差ベクトルリストと、それぞれの視差ベクトルを、A,B,Cの各オブジェクの注釈を示すテキスト情報に視差を与える場合に利用することを示している。例えば、Aのオブジェクトの近傍には「Text」のテキスト情報が重畳されるが、その左眼テキスト情報と右眼テキスト情報との間には、Aのオブジェクトの位置(Ha,Va)における視差ベクトルVV-aに対応した視差が与えられる。なお、B,Cのオブジェクトの近傍に重畳されるテキスト情報に関しても同様である。   FIG. 25B shows the positions of the objects A, B, and C, the disparity vector list indicating the correspondence between the disparity vectors at the positions, the disparity vectors, and the annotations of the objects A, B, and C. It shows that it is used when parallax is given to the text information shown. For example, the text information “Text” is superimposed in the vicinity of the object A, but the disparity vector at the position (Ha, Va) of the object A is between the left-eye text information and the right-eye text information. Parallax corresponding to VV-a is given. The same applies to the text information superimposed in the vicinity of the B and C objects.

次に、視差ベクトルが、グラフィクス情報、テキスト情報のデータに含めて送信されてくる場合を説明する。この場合、ビットストリームデータから抽出されたグラフィクスデータには、視差ベクトルにより視差が与えられた、左眼グラフィクス情報および右眼グラフィクス情報のデータが含まれている。同様に、ビットストリームデータから抽出されたテキストデータには、視差ベクトルにより視差が与えられた、左眼テキスト情報および右眼テキスト情報のデータが含まれている。   Next, a case where a disparity vector is transmitted by being included in graphics information and text information data will be described. In this case, the graphics data extracted from the bit stream data includes data of left-eye graphics information and right-eye graphics information to which disparity is given by a disparity vector. Similarly, the text data extracted from the bitstream data includes data of left-eye text information and right-eye text information to which disparity is given by a disparity vector.

そのため、ビットストリーム処理部201は、ビットストリームデータから抽出された立体画像データ(左眼画像データ、右眼画像データ)に対して、ビットストリームデータから抽出されたグラフィクスデータ、テキストデータを単に合成して、処理後の立体画像データを取得する。なお、テキストデータに関しては、テキストデータ(コードデータ)をビットマップデータに変換することは必要である。   Therefore, the bit stream processing unit 201 simply combines the graphics data and text data extracted from the bit stream data with the stereoscopic image data (left eye image data and right eye image data) extracted from the bit stream data. Thus, the processed stereoscopic image data is acquired. Regarding text data, it is necessary to convert text data (code data) into bitmap data.

[セットトップボックスの構成例]
セットトップボックス200の構成例を説明する。図26は、セットトップボックス200の構成例を示している。このセットトップボックス200は、ビットストリーム処理部201と、HDMI端子202と、アンテナ端子203と、デジタルチューナ204と、映像信号処理回路205と、HDMI送信部206と、音声信号処理回路207を有している。また、このセットトップボックス200は、CPU211と、フラッシュROM212と、DRAM213と、内部バス214と、リモコン受信部215と、リモコン送信機216を有している。
[Configuration example of set-top box]
A configuration example of the set top box 200 will be described. FIG. 26 shows a configuration example of the set top box 200. The set top box 200 includes a bit stream processing unit 201, an HDMI terminal 202, an antenna terminal 203, a digital tuner 204, a video signal processing circuit 205, an HDMI transmission unit 206, and an audio signal processing circuit 207. ing. The set top box 200 includes a CPU 211, a flash ROM 212, a DRAM 213, an internal bus 214, a remote control receiving unit 215, and a remote control transmitter 216.

アンテナ端子203は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ204は、アンテナ端子203に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)を出力する。   The antenna terminal 203 is a terminal for inputting a television broadcast signal received by a receiving antenna (not shown). The digital tuner 204 processes the television broadcast signal input to the antenna terminal 203 and outputs predetermined bit stream data (transport stream) corresponding to the user's selected channel.

ビットストリーム処理部201は、上述したように、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、グラフィクスデータ、テキストデータ、視差ベクトル等を抽出する。そして、このビットストリーム処理部201は、上述したように、立体画像データに対し、重畳情報(グラフィクス情報、テキスト情報)のデータを合成し、表示用立体画像データを取得する。また、ビットストリーム処理部201は、音声データを出力する。ビットストリーム処理部201の詳細構成は後述する。   As described above, the bit stream processing unit 201 extracts stereoscopic image data (left-eye image data, right-eye image data), audio data, graphics data, text data, disparity vectors, and the like from the bit stream data. Then, as described above, the bit stream processing unit 201 synthesizes superimposition information (graphics information, text information) data with the stereoscopic image data, and acquires display stereoscopic image data. The bit stream processing unit 201 outputs audio data. The detailed configuration of the bit stream processing unit 201 will be described later.

映像信号処理回路205は、ビットストリーム処理部201から出力された立体画像データに対して必要に応じて画質調整処理などを行い、処理後の立体画像データをHDMI送信部206に供給する。音声信号処理回路207は、ビットストリーム処理部201から出力された音声データに対して必要に応じて音質調整処理等を行い、処理後の音声データをHDMI送信部206に供給する。   The video signal processing circuit 205 performs image quality adjustment processing on the stereoscopic image data output from the bit stream processing unit 201 as necessary, and supplies the processed stereoscopic image data to the HDMI transmission unit 206. The audio signal processing circuit 207 performs sound quality adjustment processing or the like on the audio data output from the bit stream processing unit 201 as necessary, and supplies the processed audio data to the HDMI transmission unit 206.

HDMI送信部206は、HDMIに準拠した通信により、ベースバンドの画像(映像)と音声のデータを、HDMI端子202から送出する。この場合、HDMIのTMDSチャネルで送信するため、画像および音声のデータがパッキングされて、HDMI送信部206からHDMI端子202に出力される。このHDMI送信部206の詳細は後述する。   The HDMI transmission unit 206 transmits baseband image (video) and audio data from the HDMI terminal 202 by communication conforming to HDMI. In this case, since transmission is performed using the HDMI TMDS channel, image and audio data are packed and output from the HDMI transmission unit 206 to the HDMI terminal 202. Details of the HDMI transmission unit 206 will be described later.

CPU211は、セットトップボックス200の各部の動作を制御する。フラッシュROM212は、制御ソフトウェアの格納およびデータの保管を行う。DRAM213は、CPU211のワークエリアを構成する。CPU211は、フラッシュROM212から読み出したソフトウェアやデータをDRAM213上に展開してソフトウェアを起動させ、セットトップボックス200の各部を制御する。   The CPU 211 controls the operation of each part of the set top box 200. The flash ROM 212 stores control software and data. The DRAM 213 constitutes a work area for the CPU 211. The CPU 211 develops software and data read from the flash ROM 212 on the DRAM 213 to activate the software, and controls each part of the set top box 200.

リモコン受信部215は、リモコン送信機216から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU211に供給する。CPU211は、このリモコンコードに基づいて、セットトップボックス200の各部を制御する。CPU211、フラッシュROM212およびDRAM213は内部バス214に接続されている。   The remote control receiving unit 215 receives a remote control signal (remote control code) transmitted from the remote control transmitter 216 and supplies it to the CPU 211. The CPU 211 controls each part of the set top box 200 based on the remote control code. The CPU 211, flash ROM 212 and DRAM 213 are connected to the internal bus 214.

セットトップボックス200の動作を簡単に説明する。アンテナ端子203に入力されたテレビ放送信号はデジタルチューナ204に供給される。このデジタルチューナ204では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)が出力される。   The operation of the set top box 200 will be briefly described. A television broadcast signal input to the antenna terminal 203 is supplied to the digital tuner 204. The digital tuner 204 processes the television broadcast signal and outputs predetermined bit stream data (transport stream) corresponding to the user's selected channel.

デジタルチューナ204から出力されるビットストリームデータは、ビットストリーム処理部201に供給される。このビットストリーム処理部201では、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、グラフィクスデータ、テキストデータ、視差ベクトル等が抽出される。また、このビットストリーム処理部201では、立体画像データに対し、重畳情報(グラフィクス情報、テキスト情報)のデータが合成され、表示用立体画像データが生成される。   The bit stream data output from the digital tuner 204 is supplied to the bit stream processing unit 201. The bit stream processing unit 201 extracts stereoscopic image data (left-eye image data, right-eye image data), audio data, graphics data, text data, disparity vectors, and the like from the bit stream data. Further, in the bit stream processing unit 201, the superimposition information (graphics information and text information) data is synthesized with the stereoscopic image data to generate display stereoscopic image data.

ビットストリーム処理部201で生成される表示用立体画像データは、映像信号処理回路205で必要に応じて画質調整処理等が行われた後に、HDMI送信部206に供給される。また、ビットストリーム処理部201で得られる音声データは、音声信号処理回路207で必要に応じて音質調整処理等が行われた後に、HDMI送信部206に供給される。HDMI送信部206に供給された立体画像データおよび音声データは、HDMIのTMDSチャネルにより、HDMI端子202からHDMIケーブル400に送出される。   The display stereoscopic image data generated by the bit stream processing unit 201 is supplied to the HDMI transmission unit 206 after image quality adjustment processing or the like is performed as necessary by the video signal processing circuit 205. Also, the audio data obtained by the bit stream processing unit 201 is supplied to the HDMI transmission unit 206 after the audio signal processing circuit 207 performs sound quality adjustment processing or the like as necessary. The stereoscopic image data and audio data supplied to the HDMI transmission unit 206 are transmitted from the HDMI terminal 202 to the HDMI cable 400 via the HDMI TMDS channel.

[ビットストリーム処理部の構成例]
ビットストリーム処理部201の構成例を説明する。図27は、ビットストリーム処理部201の構成例を示している。このビットストリーム処理部201は、上述の図2に示す送信データ生成部110に対応させた構成となっている。このビットストリーム処理部201は、デマルチプレクサ220と、ビデオデコーダ221と、グラフィクスデコーダ222と、テキストデコーダ223と、オーディオデコーダ224と、視差ベクトルデコーダ225を有している。また、このビットストリーム処理部201は、立体画像用グラフィクス発生部226と、立体画像用テキスト発生部227と、ビデオ重畳部228と、マルチチャネルスピーカコントロール部229を有している。
[Configuration example of bit stream processing unit]
A configuration example of the bit stream processing unit 201 will be described. FIG. 27 shows a configuration example of the bit stream processing unit 201. The bit stream processing unit 201 has a configuration corresponding to the transmission data generation unit 110 shown in FIG. The bit stream processing unit 201 includes a demultiplexer 220, a video decoder 221, a graphics decoder 222, a text decoder 223, an audio decoder 224, and a disparity vector decoder 225. The bit stream processing unit 201 includes a stereoscopic image graphics generation unit 226, a stereoscopic image text generation unit 227, a video superimposition unit 228, and a multi-channel speaker control unit 229.

デマルチプレクサ220は、ビットストリームデータBSDから、ビデオ、オーディオ、視差ベクトル、グラフィクスおよびテキストのTSパケットを抽出し、各デコーダに送る。   The demultiplexer 220 extracts TS packets of video, audio, disparity vector, graphics, and text from the bit stream data BSD, and sends them to each decoder.

ビデオデコーダ221は、上述の送信データ生成部110のビデオエンコーダ113とは逆の処理を行う。すなわち、このビデオデコーダ221は、デマルチプレクサ220で抽出されたビデオのパケットからビデオのエレメンタリーストリームを再構成し、復号化処理を行って、左眼画像データおよび右眼画像データを含む立体画像データを得る。この立体画像データの伝送方式は、例えば、上述の第1の伝送方式(「Top & Bottom」方式)、第2の伝送方式は(「Side By Side」方式)、第3の伝送方式(「Frame Sequential」方式)などである(図4(a)〜(c)参照)。   The video decoder 221 performs processing opposite to that of the video encoder 113 of the transmission data generation unit 110 described above. That is, the video decoder 221 reconstructs a video elementary stream from the video packet extracted by the demultiplexer 220, performs decoding processing, and generates stereoscopic image data including left-eye image data and right-eye image data. Get. The transmission method of the stereoscopic image data is, for example, the first transmission method (“Top & Bottom” method) described above, the second transmission method (“Side By Side” method), and the third transmission method (“Frame”). Sequential ”method) (see FIGS. 4A to 4C).

グラフィクスデコーダ222は、上述の送信データ生成部110のグラフィクスエンコーダ119とは逆の処理を行う。すなわち、このグラフィクスデコーダ222は、デマルチプレクサ220で抽出されたグラフィクスのパケットからグラフィクスのエレメンタリーストリームを再構成し、復号化処理を行って、グラフィクスデータを得る。   The graphics decoder 222 performs processing opposite to that of the graphics encoder 119 of the transmission data generation unit 110 described above. That is, the graphics decoder 222 reconstructs a graphics elementary stream from the graphics packet extracted by the demultiplexer 220, performs decoding processing, and obtains graphics data.

テキストデコーダ223は、上述の送信データ生成部110のテキストエンコーダ121とは逆の処理を行う。すなわち、このテキストデコーダ223は、デマルチプレクサ220で抽出されたテキストのパケットからテキストのエレメンタリーストリームを再構成し、復号化処理を行って、テキストデータを得る。   The text decoder 223 performs processing reverse to that of the text encoder 121 of the transmission data generation unit 110 described above. That is, the text decoder 223 reconstructs a text elementary stream from the text packet extracted by the demultiplexer 220 and performs a decoding process to obtain text data.

オーディオデコーダ224は、上述の送信データ生成部110のオーディオエンコーダ117とは逆の処理を行う。すなわち、このオーディオデコーダ224は、デマルチプレクサ220で抽出されたオーディオのパケットからオーディオのエレメンタリーストリームを再構成し、復号化処理を行って、音声データを得る。   The audio decoder 224 performs processing opposite to that of the audio encoder 117 of the transmission data generation unit 110 described above. That is, the audio decoder 224 reconstructs an audio elementary stream from the audio packet extracted by the demultiplexer 220, performs decoding processing, and obtains audio data.

視差ベクトルデコーダ225は、上述の送信データ生成部110の視差ベクトルエンコーダ115とは逆の処理を行う。すなわち、この視差ベクトルデコーダ225は、デマルチプレクサ220で抽出された視差ベクトルのパケットから視差ベクトルのエレメンタリーストリームを再構成し、復号化処理を行って、画像内の所定位置の視差ベクトルを得る。   The disparity vector decoder 225 performs a process opposite to that of the disparity vector encoder 115 of the transmission data generation unit 110 described above. That is, the disparity vector decoder 225 reconstructs an elementary stream of disparity vectors from the disparity vector packets extracted by the demultiplexer 220, performs decoding processing, and obtains disparity vectors at predetermined positions in the image.

立体画像用グラフィクス発生部226は、デコーダ222で得られたグラフィクスデータと、デコーダ225で得られた視差ベクトルに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼グラフィクス情報、右眼グラフィクス情報を生成する。この場合、左眼グラフィクス情報および右眼グラフィクス情報は同一のグラフィクス情報であるが、画像内の重畳位置が、例えば、左眼グラフィクス情報に対して、右眼グラフィクス情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。そして、この立体画像用グラフィクス発生部226は、生成された左眼グラフィクス情報および右眼グラフィクス情報のデータ(ビットマップデータ)を出力する。   Based on the graphics data obtained by the decoder 222 and the parallax vector obtained by the decoder 225, the stereoscopic image graphics generation unit 226 superimposes left-eye graphics information and right-eye graphics on the left-eye image and right-eye image, respectively. Generate information. In this case, the left-eye graphics information and the right-eye graphics information are the same graphics information, but the superimposed position in the image is, for example, the left-eye graphics information, and the right-eye graphics information is the horizontal component of the disparity vector. Only to be shifted horizontally. Then, the stereoscopic image graphics generation unit 226 outputs data (bitmap data) of the generated left eye graphics information and right eye graphics information.

立体画像用テキスト発生部227は、デコーダ223で得られたテキストスデータと、デコーダ225で得られた視差ベクトルに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼テキスト情報、右眼テキスト情報を生成する。この場合、左眼テキスト情報および右眼テキスト情報は同一のテキスト情報であるが、画像内の重畳位置が、例えば、左眼テキスト情報に対して、右眼テキスト情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。そして、この立体画像用テキスト発生部227は、生成された左眼テキスト情報および右眼テキスト情報のデータ(ビットマップデータ)を出力する。   Based on the text data obtained by the decoder 223 and the parallax vector obtained by the decoder 225, the stereoscopic image text generating unit 227 superimposes the left-eye text information and the right-eye image to be superimposed on the left-eye image and the right-eye image, respectively. Generate text information. In this case, the left-eye text information and the right-eye text information are the same text information, but the superimposed position in the image is, for example, the left-eye text information, and the right-eye text information is the horizontal component of the disparity vector. Only to be shifted horizontally. Then, the stereoscopic image text generation unit 227 outputs data (bitmap data) of the generated left eye text information and right eye text information.

ビデオ重畳部228は、ビデオデコーダ221で得られた立体画像データ(左眼画像データ、右眼画像データ)に対して、グラフィクス発生部226で発生されるデータ、およびテキスト発生部227で発生されるデータを重畳し、表示用立体画像データVoutを得る。   The video superimposing unit 228 generates the data generated by the graphics generating unit 226 and the text generating unit 227 for the stereoscopic image data (left-eye image data and right-eye image data) obtained by the video decoder 221. The data is superimposed to obtain display stereoscopic image data Vout.

マルチチャネルスピーカコントロール部229は、オーディオデコーダ224で得られる音声データに対して、例えば5.1chサラウンド等を実現するためのマルチチャネルスピーカの音声データを生成する処理、所定の音場特性を付与する処理等を施す。また、このマルチチャネルスピーカコントロール部229は、デコーダ225で得られた視差ベクトルに基づいて、マルチチャネルスピーカの出力を制御する。   The multi-channel speaker control unit 229 gives the sound data obtained by the audio decoder 224 a process for generating sound data of a multi-channel speaker for realizing 5.1ch surround, for example, and predetermined sound field characteristics. Apply processing. The multi-channel speaker control unit 229 controls the output of the multi-channel speaker based on the disparity vector obtained by the decoder 225.

視差ベクトルの大きさが大きくなる程、立体感が際だつ効果がある。立体の度合いに合わせて、マルチチャネルのスピーカ出力を制御することで、更なる立体体験の提供を実現できる。   The greater the size of the parallax vector, the more effective the stereoscopic effect. By controlling the multi-channel speaker output according to the degree of 3D, it is possible to provide a further 3D experience.

図28は、視差ベクトルVV1が、テレビディスプレイに向かって、左側のビデオオブジェクトの方が大きい場合のスピーカ出力制御例を示している。この制御例では、マルチチャネルスピーカのRear Leftのスピーカ音量は大きくされ、Front Leftのスピーカ音量は中程度とされ、さらに、Front Right,Rear Rightのスピーカ音量が小さくされる。このように、ビデオコンテンツ(立体画像データ)の視差ベクトルを、音声データ等の他のメディアデータへ受信側で適用することで、視聴者に、立体感を総合的に体感させることが可能になる。   FIG. 28 shows an example of speaker output control when the parallax vector VV1 is larger for the left video object toward the television display. In this control example, the rear left speaker volume of the multi-channel speaker is increased, the front left speaker volume is medium, and the front right and rear right speaker volumes are decreased. In this way, by applying the disparity vector of the video content (stereoscopic image data) to other media data such as audio data on the receiving side, the viewer can experience a stereoscopic effect comprehensively. .

図27に示すビットストリーム処理部201の動作を簡単に説明する。デジタルチューナ204(図26参照)から出力されるビットストリームデータBSDは、デマルチプレクサ220に供給される。このデマルチプレクサ220では、ビットストリームデータBSDから、ビデオ、オーディオ、視差ベクトル、グラフィクスおよびテキストのTSパケットが抽出され、各デコーダに供給される。   The operation of the bit stream processing unit 201 shown in FIG. 27 will be briefly described. The bit stream data BSD output from the digital tuner 204 (see FIG. 26) is supplied to the demultiplexer 220. The demultiplexer 220 extracts TS packets of video, audio, disparity vector, graphics, and text from the bit stream data BSD, and supplies them to each decoder.

ビデオデコーダ221では、デマルチプレクサ220で抽出されたビデオのパケットからビデオのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、左眼画像データおよび右眼画像データを含む立体画像データが得られる。この立体画像データは、ビデオ重畳部228に供給される。また、視差ベクトルデコーダ225では、デマルチプレクサ220で抽出された視差ベクトルのパケットから視差ベクトルのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、画像内の所定位置の視差ベクトルが得られる(図8参照)。   In the video decoder 221, a video elementary stream is reconstructed from the video packet extracted by the demultiplexer 220, and further, decoding processing is performed, so that stereoscopic image data including left eye image data and right eye image data is obtained. can get. The stereoscopic image data is supplied to the video superimposing unit 228. In addition, the disparity vector decoder 225 reconstructs the disparity vector elementary stream from the disparity vector packet extracted by the demultiplexer 220 and further performs decoding processing to obtain a disparity vector at a predetermined position in the image. (See FIG. 8).

グラフィクスデコーダ222では、デマルチプレクサ220で抽出されたグラフィクスのパケットからグラフィクスのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、グラフィクスデータが得られる。このグラフィクスデータは、立体画像用グラフィクス発生部226に供給される。この立体画像用グラフィクス発生部226には、視差ベクトルデコーダ225で得られた視差ベクトルも供給される。   In the graphics decoder 222, a graphics elementary stream is reconstructed from the graphics packet extracted by the demultiplexer 220, and further, decoding processing is performed to obtain graphics data. The graphics data is supplied to the stereoscopic image graphics generation unit 226. The stereoscopic image graphics generation unit 226 is also supplied with the disparity vector obtained by the disparity vector decoder 225.

この立体画像用グラフィクス発生部226では、デコーダ222で得られたグラフィクスデータと、デコーダ225で得られた視差ベクトルに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼グラフィクス情報、右眼グラフィクス情報が生成される。この場合、左眼グラフィクス情報および右眼グラフィクス情報は同一のグラフィクス情報であるが、画像内の重畳位置が、例えば、左眼グラフィクス情報に対して、右眼グラフィクス情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。この立体画像用グラフィクス発生部226からは、生成された左眼グラフィクス情報および右眼グラフィクス情報のデータ(ビットマップデータ)が出力される。   In this stereoscopic image graphics generation unit 226, based on the graphics data obtained by the decoder 222 and the parallax vector obtained by the decoder 225, left-eye graphics information and right-eye information to be superimposed on the left-eye image and the right-eye image, respectively. Graphics information is generated. In this case, the left-eye graphics information and the right-eye graphics information are the same graphics information, but the superimposed position in the image is, for example, the left-eye graphics information, and the right-eye graphics information is the horizontal component of the disparity vector. Only to be shifted horizontally. From the stereoscopic image graphics generation unit 226, data (bitmap data) of the generated left-eye graphics information and right-eye graphics information is output.

また、テキストデコーダ223では、デマルチプレクサ220で抽出されたテキストのTSパケットからテキストのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、テキストデータが得られる。このテキストデータは立体画像用テキスト発生部227に供給される。この立体画像用テキスト発生部227には、視差ベクトルデコーダ225で得られた視差ベクトルも供給される。   Further, the text decoder 223 reconstructs a text elementary stream from the text TS packet extracted by the demultiplexer 220 and further performs a decoding process to obtain text data. This text data is supplied to the stereoscopic image text generator 227. The stereoscopic image text generation unit 227 is also supplied with the disparity vector obtained by the disparity vector decoder 225.

この立体画像用テキスト発生部227では、デコーダ223で得られたテキストスデータと、デコーダ225で得られた視差ベクトルに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼テキスト情報、右眼テキスト情報が生成される。この場合、左眼テキスト情報および右眼テキスト情報は同一のテキスト情報であるが、画像内の重畳位置が、例えば、左眼テキスト情報に対して、右眼テキスト情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。この立体画像用テキスト発生部227からは、生成された左眼テキスト情報および右眼テキスト情報のデータ(ビットマップデータ)が出力される。   In this stereoscopic image text generation unit 227, based on the text data obtained by the decoder 223 and the disparity vector obtained by the decoder 225, left-eye text information to be superimposed on the left-eye image and the right-eye image, Eye text information is generated. In this case, the left-eye text information and the right-eye text information are the same text information, but the superimposed position in the image is, for example, the left-eye text information, and the right-eye text information is the horizontal component of the disparity vector Only to be shifted horizontally. From the stereoscopic image text generating unit 227, data (bitmap data) of the generated left eye text information and right eye text information is output.

ビデオ重畳部228には、上述したビデオデコーダ221からの立体画像データ(左眼画像データ、右眼画像データ)の他に、グラフィクス発生部226およびテキスト発生部227から出力されるデータが供給される。このビデオ重畳部228では、立体画像データ(左眼画像データ、右眼画像データ)に対して、グラフィクス発生部226およびテキスト発生部227で発生されたデータが重畳され、表示用立体画像データVoutが得られる。この表示用立体画像データVoutは、映像信号処理回路205を介して、HDMI送信部206(図26参照)に、送信画像データとして供給される。   In addition to the stereoscopic image data (left-eye image data and right-eye image data) from the video decoder 221, the video superimposing unit 228 is supplied with data output from the graphics generating unit 226 and the text generating unit 227. . In the video superimposing unit 228, the data generated by the graphics generating unit 226 and the text generating unit 227 is superimposed on the stereoscopic image data (left eye image data, right eye image data), and the display stereoscopic image data Vout is obtained. can get. The display stereoscopic image data Vout is supplied as transmission image data to the HDMI transmission unit 206 (see FIG. 26) via the video signal processing circuit 205.

また、オーディオデコーダ224では、デマルチプレクサ220で抽出されたオーディオのTSパケットからオーディオのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、音声データが得られる。この音声データは、マルチチャネルスピーカコントロール部229に供給される。このマルチチャネルスピーカコントロール部229では、音声データに対して、例えば5.1chサラウンド等を実現するためのマルチチャネルスピーカの音声データを生成する処理、所定の音場特性を付与する処理等が施される。   Also, the audio decoder 224 reconstructs an audio elementary stream from the audio TS packet extracted by the demultiplexer 220 and further performs a decoding process to obtain audio data. This audio data is supplied to the multi-channel speaker control unit 229. In this multi-channel speaker control unit 229, for example, processing for generating multi-channel speaker audio data for realizing 5.1ch surround, processing for giving predetermined sound field characteristics, and the like are performed on the audio data. The

このマルチチャネルスピーカコントロール部229には、視差ベクトルデコーダ225で得られた視差ベクトルも供給される。そして、このマルチチャネルスピーカコントロール部229では、視差ベクトルに基づいて、マルチチャネルスピーカの出力が制御される。このマルチチャネルスピーカコントロール部229で得られるマルチチャネル音声データは、音声信号処理回路207を介してHDMI送信部206(図26参照)に、送信音声データとして供給される。   The multi-channel speaker control unit 229 is also supplied with the disparity vector obtained by the disparity vector decoder 225. The multi-channel speaker control unit 229 controls the output of the multi-channel speaker based on the parallax vector. The multichannel audio data obtained by the multichannel speaker control unit 229 is supplied as transmission audio data to the HDMI transmission unit 206 (see FIG. 26) via the audio signal processing circuit 207.

なお、上述の図27に示すビットストリーム処理部201は、上述の図2に示す送信データ生成部110に対応させた構成となっている。図29に示すビットストリーム処理部201Aは、上述の図13に示す送信データ生成部110Aに対応させた構成となっている。この図29において、図27と対応する部分には同一符号を付し、その詳細説明は省略する。   Note that the bit stream processing unit 201 illustrated in FIG. 27 is configured to correspond to the transmission data generation unit 110 illustrated in FIG. The bit stream processing unit 201A illustrated in FIG. 29 has a configuration corresponding to the transmission data generation unit 110A illustrated in FIG. In FIG. 29, parts corresponding to those in FIG. 27 are denoted by the same reference numerals, and detailed description thereof is omitted.

このビットストリーム処理部201Aは、図27に示すビットストリーム処理部201の視差ベクトルデコーダ225の代わりに、視差ベクトル取り出し部231が設けられる。この視差ベクトル取り出し部231は、ビデオデコーダ221を通じて得られるビデオのストリームから、そのユーザデータに埋め込まれている視差ベクトルを取り出す。そして、この視差ベクトル取り出し部231は、取り出した視差ベクトルを、立体画像用グラフィクス発生部206、立体画像用テキスト発生部227およびマルチチャネルスピーカコントロール部229に供給する。   This bit stream processing unit 201A is provided with a disparity vector extracting unit 231 instead of the disparity vector decoder 225 of the bit stream processing unit 201 shown in FIG. The disparity vector extracting unit 231 extracts a disparity vector embedded in the user data from a video stream obtained through the video decoder 221. Then, the disparity vector extracting unit 231 supplies the extracted disparity vector to the stereoscopic image graphics generating unit 206, the stereoscopic image text generating unit 227, and the multi-channel speaker control unit 229.

詳細説明は省略するが、この図29に示すビットストリーム処理部201Aのその他は、図27に示すビットストリーム処理部201と同様に構成されている。   Although the detailed description is omitted, the rest of the bit stream processing unit 201A shown in FIG. 29 is configured in the same manner as the bit stream processing unit 201 shown in FIG.

また、図30に示すビットストリーム処理部201Bは、上述の図18に示す送信データ生成部110Bに対応させた構成となっている。この図30において、図27と対応する部分には同一符号を付し、その詳細説明は省略する。   Also, the bit stream processing unit 201B illustrated in FIG. 30 is configured to correspond to the transmission data generation unit 110B illustrated in FIG. In FIG. 30, portions corresponding to those in FIG. 27 are denoted by the same reference numerals, and detailed description thereof is omitted.

このビットストリーム処理部201Bは、図27に示すビットストリーム処理部201から、視差ベクトルデコーダ225、立体画像用グラフィクス発生部206および立体画像用テキスト発生部207が除かれたものである。この場合、視差ベクトルは、グラフィクス情報、テキスト情報のデータに含めて送信されてくる。また、送信されてくるグラフィクスデータには、上述したように、左眼画像に重畳される左眼グラフィクス情報のデータおよび右眼画像に重畳される右眼グラフィクス情報のデータが含まれている。同様に、送信されてくるテキストデータには、上述したように、左眼画像に重畳される左眼テキスト情報のデータおよび右眼画像に重畳される右眼テキスト情報のデータが含まれている。したがって、視差ベクトルデコーダ225、立体画像用グラフィクス発生部206および立体画像用テキスト発生部207は不要となる。   The bit stream processing unit 201B is obtained by removing the disparity vector decoder 225, the stereoscopic image graphics generating unit 206, and the stereoscopic image text generating unit 207 from the bit stream processing unit 201 shown in FIG. In this case, the disparity vector is transmitted by being included in the graphics information and text information data. Further, as described above, the transmitted graphics data includes left-eye graphics information data superimposed on the left-eye image and right-eye graphics information data superimposed on the right-eye image. Similarly, as described above, the transmitted text data includes left-eye text information data superimposed on the left-eye image and right-eye text information data superimposed on the right-eye image. Therefore, the disparity vector decoder 225, the stereoscopic image graphics generation unit 206, and the stereoscopic image text generation unit 207 are not necessary.

なお、テキストデコーダ223で得られるテキストデータはコードデータであるので、これをビットマップデータに変換する処理は必要である。この処理は、例えば、テキストデコーダ223の最終段で行われるか、あるいはビデオ重畳部228の入力段で行われる。   Since the text data obtained by the text decoder 223 is code data, a process for converting it into bitmap data is necessary. This processing is performed at the final stage of the text decoder 223 or at the input stage of the video superimposing unit 228, for example.

[テレビ受信機の説明]
図1に戻って、テレビ受信機300は、セットトップボックス200からHDMIケーブル400を介して送られてくる立体画像データを受信する。このテレビ受信機300は、3D信号処理部301を有している。この3D信号処理部301は、立体画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。すなわち、この3D信号処理部301は、図2、図13、図18に示す送信データ生成部110,110A,110Bにおけるビデオフレーミング部112とは逆の処理を行って、立体画像データを構成する左眼画像データおよび右眼画像データを取得する。
[Description of TV receiver]
Returning to FIG. 1, the television receiver 300 receives stereoscopic image data sent from the set top box 200 via the HDMI cable 400. The television receiver 300 includes a 3D signal processing unit 301. The 3D signal processing unit 301 performs processing (decoding processing) corresponding to the transmission method on the stereoscopic image data to generate left-eye image data and right-eye image data. That is, the 3D signal processing unit 301 performs processing opposite to that of the video framing unit 112 in the transmission data generation units 110, 110A, and 110B illustrated in FIGS. Eye image data and right eye image data are acquired.

[テレビ受信機の構成例]
テレビ受信機300の構成例を説明する。図31は、テレビ受信機300の構成例を示している。このテレビ受信機300は、3D信号処理部301と、HDMI端子302と、HDMI受信部303と、アンテナ端子304と、デジタルチューナ305と、ビットストリーム処理部306を有している。また、このテレビ受信機300は、映像信号処理回路307と、パネル駆動回路308と、表示パネル309と、音声信号処理回路310と、音声増幅回路311と、スピーカ312を有している。また、このテレビ受信機300は、CPU321と、フラッシュROM322と、DRAM323と、内部バス324と、リモコン受信部325と、リモコン送信機326を有している。
[Configuration example of TV receiver]
A configuration example of the television receiver 300 will be described. FIG. 31 illustrates a configuration example of the television receiver 300. The television receiver 300 includes a 3D signal processing unit 301, an HDMI terminal 302, an HDMI receiving unit 303, an antenna terminal 304, a digital tuner 305, and a bit stream processing unit 306. The television receiver 300 also includes a video signal processing circuit 307, a panel driving circuit 308, a display panel 309, an audio signal processing circuit 310, an audio amplification circuit 311, and a speaker 312. In addition, the television receiver 300 includes a CPU 321, a flash ROM 322, a DRAM 323, an internal bus 324, a remote control receiving unit 325, and a remote control transmitter 326.

アンテナ端子304は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ305は、アンテナ端子304に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)を出力する。   The antenna terminal 304 is a terminal for inputting a television broadcast signal received by a receiving antenna (not shown). The digital tuner 305 processes the television broadcast signal input to the antenna terminal 304 and outputs predetermined bit stream data (transport stream) corresponding to the user's selected channel.

ビットストリーム処理部306は、図26に示すセットトップボックス200のビットストリーム処理部201と同様の構成とされている。このビットストリーム処理部306は、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、グラフィクスデータ、テキストデータ、視差ベクトル等を抽出する。そして、このビットストリーム処理部306は、立体画像データに対し、重畳情報(グラフィクス情報、テキスト情報)のデータを合成し、表示用立体画像データを取得する。また、ビットストリーム処理部306は、音声データを出力する。   The bit stream processing unit 306 has the same configuration as the bit stream processing unit 201 of the set top box 200 shown in FIG. The bit stream processing unit 306 extracts stereoscopic image data (left eye image data, right eye image data), audio data, graphics data, text data, a disparity vector, and the like from the bit stream data. Then, the bit stream processing unit 306 synthesizes superimposition information (graphics information, text information) data with the stereoscopic image data, and acquires display stereoscopic image data. The bit stream processing unit 306 outputs audio data.

HDMI受信部303は、HDMIに準拠した通信により、HDMIケーブル400を介してHDMI端子302に供給される非圧縮の画像データ(立体画像データ)および音声データを受信する。このHDMI受信部303の詳細は後述する。3D信号処理部301は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。   The HDMI receiving unit 303 receives uncompressed image data (stereoscopic image data) and audio data supplied to the HDMI terminal 302 via the HDMI cable 400 by communication conforming to HDMI. Details of the HDMI receiving unit 303 will be described later. The 3D signal processing unit 301 performs processing (decoding processing) corresponding to the transmission method on the stereoscopic image data received by the HDMI receiving unit 303 or obtained by the bit stream processing unit 306, and thereby the left eye image Data and right eye image data are generated.

映像信号処理回路307は、3D信号処理部301で生成された左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データを生成する。また、映像信号処理回路は、画像データに対して、必要に応じて、画質調整処理を行う。パネル駆動回路308は、映像信号処理回路307から出力される画像データに基づいて、表示パネル309を駆動する。表示パネル309は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)等で構成されている。   The video signal processing circuit 307 generates image data for displaying a stereoscopic image based on the left eye image data and right eye image data generated by the 3D signal processing unit 301. The video signal processing circuit performs image quality adjustment processing on the image data as necessary. The panel drive circuit 308 drives the display panel 309 based on the image data output from the video signal processing circuit 307. The display panel 309 includes, for example, an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), or the like.

音声信号処理回路310は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理を行う。音声増幅回路311は、音声信号処理回路310から出力される音声信号を増幅してスピーカ312に供給する。   The audio signal processing circuit 310 performs necessary processing such as D / A conversion on the audio data received by the HDMI receiving unit 303 or obtained by the bit stream processing unit 306. The audio amplification circuit 311 amplifies the audio signal output from the audio signal processing circuit 310 and supplies the amplified audio signal to the speaker 312.

CPU321は、テレビ受信機300の各部の動作を制御する。フラッシュROM322は、制御ソフトウェアの格納およびデータの保管を行う。DRAM323は、CPU321のワークエリアを構成する。CPU321は、フラッシュROM322から読み出したソフトウェアやデータをDRAM323上に展開してソフトウェアを起動させ、テレビ受信機300の各部を制御する。   The CPU 321 controls the operation of each unit of the television receiver 300. The flash ROM 322 stores control software and data. The DRAM 323 constitutes a work area for the CPU 321. The CPU 321 develops software and data read from the flash ROM 322 on the DRAM 323 to activate the software, and controls each unit of the television receiver 300.

リモコン受信部325は、リモコン送信機326から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU321に供給する。CPU321は、このリモコンコードに基づいて、テレビ受信機300の各部を制御する。CPU321、フラッシュROM322およびDRAM323は、内部バス324に接続されている。   The remote control receiving unit 325 receives the remote control signal (remote control code) transmitted from the remote control transmitter 326 and supplies it to the CPU 321. The CPU 321 controls each part of the television receiver 300 based on the remote control code. The CPU 321, flash ROM 322, and DRAM 323 are connected to the internal bus 324.

図31に示すテレビ受信機300の動作を簡単に説明する。HDMI受信部303では、HDMI端子302にHDMIケーブル400を介して接続されているセットトップボックス200から送信されてくる、立体画像データおよび音声データが受信される。このHDMI受信部303で受信された立体画像データは、3D信号処理部301に供給される。また、このHDMI受信部303で受信された音声データは音声信号処理回路310に供給される。   The operation of the television receiver 300 shown in FIG. 31 will be briefly described. The HDMI receiving unit 303 receives stereoscopic image data and audio data transmitted from the set top box 200 connected to the HDMI terminal 302 via the HDMI cable 400. The stereoscopic image data received by the HDMI receiving unit 303 is supplied to the 3D signal processing unit 301. The audio data received by the HDMI receiving unit 303 is supplied to the audio signal processing circuit 310.

アンテナ端子304に入力されたテレビ放送信号はデジタルチューナ305に供給される。このデジタルチューナ305では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)が出力される。   A television broadcast signal input to the antenna terminal 304 is supplied to the digital tuner 305. The digital tuner 305 processes the television broadcast signal and outputs predetermined bit stream data (transport stream) corresponding to the user's selected channel.

デジタルチューナ305から出力されるビットストリームデータは、ビットストリーム処理部306に供給される。このビットストリーム処理部306では、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、グラフィクスデータ、テキストデータ、視差ベクトル等が抽出される。また、このビットストリーム処理部306では、立体画像データに対し、重畳情報(グラフィクス情報、テキスト情報)のデータが合成され、表示用立体画像データが生成される。   The bit stream data output from the digital tuner 305 is supplied to the bit stream processing unit 306. The bit stream processing unit 306 extracts stereoscopic image data (left-eye image data, right-eye image data), audio data, graphics data, text data, disparity vectors, and the like from the bit stream data. In addition, in the bit stream processing unit 306, superimposition information (graphics information, text information) data is combined with the stereoscopic image data to generate display stereoscopic image data.

ビットストリーム処理部306で生成される表示用立体画像データは、3D信号処理部301に供給される。また、このビットストリーム処理部306で得られる音声データは、音声信号処理回路310に供給される。   The display stereoscopic image data generated by the bit stream processing unit 306 is supplied to the 3D signal processing unit 301. The audio data obtained by the bit stream processing unit 306 is supplied to the audio signal processing circuit 310.

3D信号処理部301では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対して、伝送方式に対応した処理(デコード処理)が行われて、左眼画像データおよび右眼画像データが生成される。この左眼画像データおよび右眼画像データは、映像信号処理部回路307に供給される。この映像信号処理回路307では、左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データが生成される。そのため、表示パネル309により立体画像が表示される。   In the 3D signal processing unit 301, processing corresponding to the transmission method (decoding processing) is performed on the stereoscopic image data received by the HDMI receiving unit 303 or obtained by the bit stream processing unit 306, and the left eye Image data and right eye image data are generated. The left eye image data and right eye image data are supplied to the video signal processing unit circuit 307. In the video signal processing circuit 307, image data for displaying a stereoscopic image is generated based on the left eye image data and the right eye image data. Therefore, a stereoscopic image is displayed on the display panel 309.

また、音声信号処理回路310では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理が施される。この音声データは、音声増幅回路311で増幅された後に、スピーカ312に供給される。そのため、スピーカ312から音声が出力される。   In the audio signal processing circuit 310, necessary processing such as D / A conversion is performed on the audio data received by the HDMI receiving unit 303 or obtained by the bit stream processing unit 306. The audio data is amplified by the audio amplification circuit 311 and then supplied to the speaker 312. Therefore, sound is output from the speaker 312.

[HDMI送信部、HDMI受信部の構成例]
図32は、図1の立体画像表示システム10における、セットトップボックス200のHDMI送信部(HDMIソース)206と、テレビ受信機300のHDMI受信部(HDMIシンク)303の構成例を示している。
[Configuration Example of HDMI Transmitter and HDMI Receiver]
FIG. 32 shows a configuration example of the HDMI transmission unit (HDMI source) 206 of the set top box 200 and the HDMI reception unit (HDMI sink) 303 of the television receiver 300 in the stereoscopic image display system 10 of FIG.

HDMI送信部206は、有効画像区間(以下、適宜、アクティブビデオ区間ともいう)において、非圧縮の1画面分の画像の画素データに対応する差動信号を、複数のチャネルで、HDMI受信部303に一方向に送信する。ここで、有効画像区間は、一の垂直同期信号から次の垂直同期信号までの区間から、水平帰線区間及び垂直帰線区間を除いた区間である。また、HDMI送信部206は、水平帰線区間または垂直帰線区間において、少なくとも画像に付随する音声データや制御データ、その他の補助データ等に対応する差動信号を、複数のチャネルで、HDMI受信部303に一方向に送信する。   The HDMI transmission unit 206 transmits a differential signal corresponding to pixel data of an uncompressed image for one screen in an effective image section (hereinafter, also referred to as an active video section as appropriate) using a plurality of channels. Send in one direction. Here, the effective image section is a section obtained by removing the horizontal blanking section and the vertical blanking section from the section from one vertical synchronization signal to the next vertical synchronization signal. In addition, the HDMI transmission unit 206 receives the differential signals corresponding to at least audio data, control data, other auxiliary data, etc. associated with the image on a plurality of channels in the horizontal blanking interval or the vertical blanking interval. Transmit to the unit 303 in one direction.

HDMI送信部206とHDMI受信部303とからなるHDMIシステムの伝送チャネルには、以下の伝送チャネルがある。すなわち、HDMI送信部206からHDMI受信部303に対して、画素データおよび音声データを、ピクセルクロックに同期して、一方向にシリアル伝送するための伝送チャネルとしての、3つのTMDSチャネル#0乃至#2がある。また、ピクセルクロックを伝送する伝送チャネルとしての、TMDSクロックチャネルがある。   The transmission channels of the HDMI system including the HDMI transmission unit 206 and the HDMI reception unit 303 include the following transmission channels. That is, three TMDS channels # 0 to ## as transmission channels for serially transmitting pixel data and audio data in one direction in synchronization with the pixel clock from the HDMI transmission unit 206 to the HDMI reception unit 303. There are two. There is also a TMDS clock channel as a transmission channel for transmitting a pixel clock.

HDMI送信部206は、HDMIトランスミッタ81を有する。トランスミッタ81は、例えば、非圧縮の画像の画素データを対応する差動信号に変換し、複数のチャネルである3つのTMDSチャネル#0,#1,#2で、HDMIケーブル400を介して接続されているHDMI受信部303に、一方向にシリアル伝送する。   The HDMI transmission unit 206 includes an HDMI transmitter 81. The transmitter 81 converts, for example, pixel data of an uncompressed image into a corresponding differential signal, and is connected via the HDMI cable 400 with three TMDS channels # 0, # 1, and # 2 that are a plurality of channels. Serial transmission in one direction to the HDMI receiving unit 303.

また、トランスミッタ81は、非圧縮の画像に付随する音声データ、さらには、必要な制御データその他の補助データ等を、対応する差動信号に変換し、3つのTMDSチャネル#0,#1,#2でHDMI受信部303に、一方向にシリアル伝送する。   The transmitter 81 converts audio data accompanying uncompressed images, further necessary control data and other auxiliary data, etc. into corresponding differential signals, and converts them into three TMDS channels # 0, # 1, #. 2 serially transmits to the HDMI receiving unit 303 in one direction.

さらに、トランスミッタ81は、3つのTMDSチャネル#0,#1,#2で送信する画素データに同期したピクセルクロックを、TMDSクロックチャネルで、HDMIケーブル400を介して接続されているHDMI受信部303に送信する。ここで、1つのTMDSチャネル#i(i=0,1,2)では、ピクセルクロックの1クロックの間に、10ビットの画素データが送信される。   Further, the transmitter 81 transmits the pixel clock synchronized with the pixel data transmitted through the three TMDS channels # 0, # 1, and # 2 to the HDMI receiving unit 303 connected via the HDMI cable 400 using the TMDS clock channel. Send. Here, in one TMDS channel #i (i = 0, 1, 2), 10-bit pixel data is transmitted during one pixel clock.

HDMI受信部303は、アクティブビデオ区間において、複数のチャネルで、HDMI送信部206から一方向に送信されてくる、画素データに対応する差動信号を受信する。また、このHDMI受信部303は、水平帰線区間または垂直帰線区間において、複数のチャネルで、HDMI送信部206から一方向に送信されてくる、音声データや制御データに対応する差動信号を受信する。   The HDMI receiving unit 303 receives a differential signal corresponding to the pixel data transmitted from the HDMI transmitting unit 206 in one direction on a plurality of channels in the active video section. Further, the HDMI receiving unit 303 receives differential signals corresponding to audio data and control data transmitted in one direction from the HDMI transmitting unit 206 through a plurality of channels in a horizontal blanking interval or a vertical blanking interval. Receive.

すなわち、HDMI受信部303は、HDMIレシーバ82を有する。このHDMIレシーバ82は、TMDSチャネル#0,#1,#2で、HDMI送信部206から一方向に送信されてくる、画素データに対応する差動信号と、音声データや制御データに対応する差動信号を受信する。この場合、HDMI送信部206からTMDSクロックチャネルで送信されてくるピクセルクロックに同期して受信する。   That is, the HDMI receiving unit 303 includes an HDMI receiver 82. This HDMI receiver 82 uses TMDS channels # 0, # 1, and # 2 to transmit a differential signal corresponding to pixel data and a difference corresponding to audio data and control data transmitted from the HDMI transmission unit 206 in one direction. Receive a motion signal. In this case, reception is performed in synchronization with the pixel clock transmitted from the HDMI transmission unit 206 via the TMDS clock channel.

HDMI送信部206とHDMI受信部303とからなるHDMIシステムの伝送チャネルには、上述のTMDSチャネル#0乃至#2およびTMDSクロックチャネルの他に、DDC(Display Data Channel)83やCECライン84と呼ばれる伝送チャネルがある。DDC83は、HDMIケーブル400に含まれる図示しない2本の信号線からなり、HDMI送信部206が、HDMIケーブル400を介して接続されたHDMI受信部303から、E−EDID(Enhanced Extended Display Identification Data)を読み出すために使用される。   In addition to the TMDS channels # 0 to # 2 and the TMDS clock channel described above, the transmission channel of the HDMI system including the HDMI transmission unit 206 and the HDMI reception unit 303 is called a DDC (Display Data Channel) 83 or a CEC line 84. There is a transmission channel. The DDC 83 includes two signal lines (not shown) included in the HDMI cable 400, and the HDMI transmission unit 206 receives an E-EDID (Enhanced Extended Display Identification Data) from the HDMI reception unit 303 connected via the HDMI cable 400. Used to read

すなわち、HDMI受信部303は、HDMIレシーバ81の他に、自身の性能(Configuration/capability)に関する性能情報であるE−EDIDを記憶している、EDID ROM(Read Only Memory)85を有している。HDMI送信部206は、例えば、CPU211(図26参照)からの要求に応じて、HDMIケーブル400を介して接続されているHDMI受信部303から、当該HDMI受信部303のE−EDIDを、DDC83を介して読み出す。HDMI送信部206は、読み出したE−EDIDをCPU211に送る。CPU211は、このE−EDIDを、フラッシュROM212あるいはDRAM213に格納する。   That is, the HDMI receiving unit 303 has an EDID ROM (Read Only Memory) 85 that stores E-EDID, which is performance information related to its performance (Configuration / capability), in addition to the HDMI receiver 81. . For example, in response to a request from the CPU 211 (see FIG. 26), the HDMI transmission unit 206 sends the E-EDID of the HDMI reception unit 303 from the HDMI reception unit 303 connected via the HDMI cable 400 to the DDC 83. Read through. The HDMI transmission unit 206 sends the read E-EDID to the CPU 211. The CPU 211 stores this E-EDID in the flash ROM 212 or the DRAM 213.

CPU211は、E−EDIDに基づき、HDMI受信部303の性能の設定を認識できる。例えば、CPU211は、HDMI受信部303を有するテレビ受信機300が対応可能な画像データのフォーマット(解像度、フレームレート、アスペクト等)を認識する。   The CPU 211 can recognize the performance setting of the HDMI receiving unit 303 based on the E-EDID. For example, the CPU 211 recognizes image data formats (resolution, frame rate, aspect, etc.) that can be supported by the television receiver 300 having the HDMI receiving unit 303.

CECライン84は、HDMIケーブル400に含まれる図示しない1本の信号線からなり、HDMI送信部206とHDMI受信部303との間で、制御用のデータの双方向通信を行うために用いられる。このCECライン84は、制御データラインを構成している。   The CEC line 84 includes one signal line (not shown) included in the HDMI cable 400, and is used for bidirectional communication of control data between the HDMI transmission unit 206 and the HDMI reception unit 303. The CEC line 84 constitutes a control data line.

また、HDMIケーブル400には、HPD(Hot Plug Detect)と呼ばれるピンに接続されるライン(HPDライン)86が含まれている。ソース機器は、当該ライン86を利用して、シンク機器の接続を検出することができる。また、HDMIケーブル400には、ソース機器からシンク機器に電源を供給するために用いられるライン87が含まれている。さらに、HDMIケーブル400には、リザーブライン88が含まれている。   Further, the HDMI cable 400 includes a line (HPD line) 86 connected to a pin called HPD (Hot Plug Detect). The source device can detect the connection of the sink device using the line 86. Also, the HDMI cable 400 includes a line 87 that is used to supply power from the source device to the sink device. Further, the HDMI cable 400 includes a reserved line 88.

図33は、図32のHDMIトランスミッタ81とHDMIレシーバ82の構成例を示している。HDMIトランスミッタ81は、3つのTMDSチャネル#0,#1,#2にそれぞれ対応する3つのエンコーダ/シリアライザ81A,81B,81Cを有する。そして、エンコーダ/シリアライザ81A,81B,81Cのそれぞれは、そこに供給される画像データ、補助データ、制御データをエンコードし、パラレルデータからシリアルデータに変換して、差動信号により送信する。ここで、画像データが、例えばR,G,Bの3成分を有する場合、B成分はエンコーダ/シリアライザ81Aに供給され、G成分はエンコーダ/シリアライザ81Bに供給され、R成分はエンコーダ/シリアライザ81Cに供給される。   FIG. 33 shows a configuration example of the HDMI transmitter 81 and the HDMI receiver 82 of FIG. The HDMI transmitter 81 has three encoder / serializers 81A, 81B, and 81C corresponding to the three TMDS channels # 0, # 1, and # 2, respectively. Each of the encoders / serializers 81A, 81B, and 81C encodes the image data, auxiliary data, and control data supplied thereto, converts the parallel data into serial data, and transmits the data by a differential signal. Here, when the image data has, for example, three components R, G, and B, the B component is supplied to the encoder / serializer 81A, the G component is supplied to the encoder / serializer 81B, and the R component is supplied to the encoder / serializer 81C. Supplied.

また、補助データとしては、例えば、音声データや制御パケットがあり、制御パケットは、例えば、エンコーダ/シリアライザ81Aに供給され、音声データは、エンコーダ/シリアライザ81B,81Cに供給される。さらに、制御データとしては、1ビットの垂直同期信号(VSYNC)、1ビットの水平同期信号(HSYNC)、および、それぞれ1ビットの制御ビットCTL0,CTL1,CTL2,CTL3がある。垂直同期信号および水平同期信号は、エンコーダ/シリアライザ81Aに供給される。制御ビットCTL0,CTL1はエンコーダ/シリアライザ81Bに供給され、制御ビットCTL2,CTL3はエンコーダ/シリアライザ81Cに供給される。   The auxiliary data includes, for example, audio data and control packets. The control packets are supplied to, for example, the encoder / serializer 81A, and the audio data is supplied to the encoder / serializers 81B and 81C. Further, the control data includes a 1-bit vertical synchronization signal (VSYNC), a 1-bit horizontal synchronization signal (HSYNC), and 1-bit control bits CTL0, CTL1, CTL2, and CTL3. The vertical synchronization signal and the horizontal synchronization signal are supplied to the encoder / serializer 81A. The control bits CTL0 and CTL1 are supplied to the encoder / serializer 81B, and the control bits CTL2 and CTL3 are supplied to the encoder / serializer 81C.

エンコーダ/シリアライザ81Aは、そこに供給される画像データのB成分、垂直同期信号および水平同期信号、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Aは、そこに供給される画像データのB成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Aは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。   The encoder / serializer 81A transmits the B component of the image data, the vertical synchronization signal and the horizontal synchronization signal, and auxiliary data supplied thereto in a time division manner. That is, the encoder / serializer 81A converts the B component of the image data supplied thereto into 8-bit parallel data that is a fixed number of bits. Further, the encoder / serializer 81A encodes the parallel data, converts it into serial data, and transmits it through the TMDS channel # 0.

また、エンコーダ/シリアライザ81Aは、そこに供給される垂直同期信号および水平同期信号の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。さらに、エンコーダ/シリアライザ81Aは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Aは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。   The encoder / serializer 81A encodes the 2-bit parallel data of the vertical synchronization signal and horizontal synchronization signal supplied thereto, converts the data into serial data, and transmits the serial data through the TMDS channel # 0. Furthermore, the encoder / serializer 81A converts the auxiliary data supplied thereto into parallel data in units of 4 bits. Then, the encoder / serializer 81A encodes the parallel data, converts it into serial data, and transmits it through the TMDS channel # 0.

エンコーダ/シリアライザ81Bは、そこに供給される画像データのG成分、制御ビットCTL0,CTL1、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Bは、そこに供給される画像データのG成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Bは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。   The encoder / serializer 81B transmits the G component of the image data, control bits CTL0 and CTL1, and auxiliary data supplied thereto in a time division manner. That is, the encoder / serializer 81B sets the G component of the image data supplied thereto as parallel data in units of 8 bits, which is a fixed number of bits. Further, the encoder / serializer 81B encodes the parallel data, converts it into serial data, and transmits it through the TMDS channel # 1.

また、エンコーダ/シリアライザ81Bは、そこに供給される制御ビットCTL0,CTL1の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。さらに、エンコーダ/シリアライザ81Bは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Bは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。   The encoder / serializer 81B encodes the 2-bit parallel data of the control bits CTL0 and CTL1 supplied thereto, converts the data into serial data, and transmits the serial data through the TMDS channel # 1. Furthermore, the encoder / serializer 81B converts the auxiliary data supplied thereto into parallel data in units of 4 bits. Then, the encoder / serializer 81B encodes the parallel data, converts it into serial data, and transmits it through the TMDS channel # 1.

エンコーダ/シリアライザ81Cは、そこに供給される画像データのR成分、制御ビットCTL2,CTL3、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Cは、そこに供給される画像データのR成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Cは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。   The encoder / serializer 81C transmits the R component of the image data, control bits CTL2 and CTL3, and auxiliary data supplied thereto in a time division manner. That is, the encoder / serializer 81C sets the R component of the image data supplied thereto as parallel data in units of 8 bits, which is a fixed number of bits. Further, the encoder / serializer 81C encodes the parallel data, converts it into serial data, and transmits it through the TMDS channel # 2.

また、エンコーダ/シリアライザ81Cは、そこに供給される制御ビットCTL2,CTL3の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。さらに、エンコーダ/シリアライザ81Cは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Cは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。   The encoder / serializer 81C encodes 2-bit parallel data of the control bits CTL2 and CTL3 supplied thereto, converts the data into serial data, and transmits the serial data through the TMDS channel # 2. Furthermore, the encoder / serializer 81C converts the auxiliary data supplied thereto into parallel data in units of 4 bits. Then, the encoder / serializer 81C encodes the parallel data, converts it into serial data, and transmits it through the TMDS channel # 2.

HDMIレシーバ82は、3つのTMDSチャネル#0,#1,#2にそれぞれ対応する3つのリカバリ/デコーダ82A,82B,82Cを有する。そして、リカバリ/デコーダ82A,82B,82Cのそれぞれは、TMDSチャネル#0,#1,#2で差動信号により送信されてくる画像データ、補助データ、制御データを受信する。さらに、リカバリ/デコーダ82A,82B,82Cのそれぞれは、画像データ、補助データ、制御データを、シリアルデータからパラレルデータに変換し、さらにデコードして出力する。   The HDMI receiver 82 has three recovery / decoders 82A, 82B, and 82C corresponding to the three TMDS channels # 0, # 1, and # 2, respectively. Then, each of the recovery / decoders 82A, 82B, and 82C receives image data, auxiliary data, and control data transmitted as differential signals through the TMDS channels # 0, # 1, and # 2. Further, each of the recovery / decoders 82A, 82B, and 82C converts image data, auxiliary data, and control data from serial data to parallel data, and further decodes and outputs the converted data.

すなわち、リカバリ/デコーダ82Aは、TMDSチャネル#0で差動信号により送信されてくる画像データのB成分、垂直同期信号および水平同期信号、補助データを受信する。そして、リカバリ/デコーダ82Aは、その画像データのB成分、垂直同期信号および水平同期信号、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。   That is, the recovery / decoder 82A receives the B component of the image data, the vertical synchronization signal, the horizontal synchronization signal, and the auxiliary data that are transmitted as differential signals through the TMDS channel # 0. Then, the recovery / decoder 82A converts the B component of the image data, the vertical synchronization signal, the horizontal synchronization signal, and the auxiliary data from serial data to parallel data, and decodes and outputs them.

リカバリ/デコーダ82Bは、TMDSチャネル#1で差動信号により送信されてくる画像データのG成分、制御ビットCTL0,CTL1、補助データを受信する。そして、リカバリ/デコーダ82Bは、その画像データのG成分、制御ビットCTL0,CTL1、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。   The recovery / decoder 82B receives the G component of the image data, the control bits CTL0 and CTL1, and the auxiliary data transmitted by the differential signal through the TMDS channel # 1. Then, the recovery / decoder 82B converts the G component of the image data, the control bits CTL0 and CTL1, and the auxiliary data from serial data to parallel data, and decodes and outputs them.

リカバリ/デコーダ82Cは、TMDSチャネル#2で差動信号により送信されてくる画像データのR成分、制御ビットCTL2,CTL3、補助データを受信する。そして、リカバリ/デコーダ82Cは、その画像データのR成分、制御ビットCTL2,CTL3、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。   The recovery / decoder 82C receives the R component of the image data, the control bits CTL2 and CTL3, and the auxiliary data transmitted by the differential signal through the TMDS channel # 2. Then, the recovery / decoder 82C converts the R component of the image data, the control bits CTL2 and CTL3, and the auxiliary data from serial data to parallel data, and decodes and outputs them.

図34は、TMDS伝送データの構造例を示している。この図34は、TMDSチャネル#0,#1,#2において、横*縦が1920ピクセル*1080ラインの画像データが伝送される場合の、各種の伝送データの区間を示している。   FIG. 34 shows an example of the structure of TMDS transmission data. FIG. 34 shows sections of various transmission data when image data of horizontal * vertical 1920 pixels * 1080 lines is transmitted in TMDS channels # 0, # 1, and # 2.

HDMIの3つのTMDSチャネル#0,#1,#2で伝送データが伝送されるビデオフィールド(Video Field)には、伝送データの種類に応じて、3種類の区間が存在する。この3種類の区間は、ビデオデータ区間(Video Data period)、データアイランド区間(Data Island period)、およびコントロール区間(Control period)である。   A video field (Video Field) in which transmission data is transmitted through the three TMDS channels # 0, # 1, and # 2 of HDMI has three types of sections according to the type of transmission data. These three types of sections are a video data period, a data island period, and a control period.

ここで、ビデオフィールド区間は、ある垂直同期信号の立ち上がりエッジ(active edge)から次の垂直同期信号の立ち上がりエッジまでの区間である。このビデオフィールド区間は、水平ブランキング期間(horizontal blanking)、垂直ブランキング期間(vertical blanking)、並びに、アクティブビデオ区間(Active Video)に分けられる。このアクティブビデオ区間は、ビデオフィールド区間から、水平ブランキング期間および垂直ブランキング期間を除いた区間である   Here, the video field period is a period from the rising edge (active edge) of a certain vertical synchronizing signal to the rising edge of the next vertical synchronizing signal. The video field period is divided into a horizontal blanking period (horizontal blanking), a vertical blanking period (vertical blanking), and an active video period (Active Video). This active video section is a section obtained by removing the horizontal blanking period and the vertical blanking period from the video field section.

ビデオデータ区間は、アクティブビデオ区間に割り当てられる。このビデオデータ区間では、非圧縮の1画面分の画像データを構成する1920ピクセル(画素)*1080ライン分の有効画素(Active pixel)のデータが伝送される。   The video data section is assigned to the active video section. In this video data section, 1920 pixel (active pixel) data of 1080 pixels constituting active image data for one screen of uncompressed data is transmitted.

データアイランド区間およびコントロール区間は、水平ブランキング期間および垂直ブランキング期間に割り当てられる。このデータアイランド区間およびコントロール区間では、補助データ(Auxiliary data)が伝送される。すなわち、データアイランド区間は、水平ブランキング期間と垂直ブランキング期間の一部分に割り当てられている。このデータアイランド区間では、補助データのうち、制御に関係しないデータである、例えば、音声データのパケット等が伝送される。   The data island period and the control period are assigned to the horizontal blanking period and the vertical blanking period. In the data island section and the control section, auxiliary data (Auxiliary data) is transmitted. That is, the data island period is assigned to a part of the horizontal blanking period and the vertical blanking period. In this data island period, for example, audio data packets, which are data not related to control, of auxiliary data are transmitted.

コントロール区間は、水平ブランキング期間と垂直ブランキング期間の他の部分に割り当てられている。このコントロール区間では、補助データのうちの、制御に関係するデータである、例えば、垂直同期信号および水平同期信号、制御パケット等が伝送される。   The control period is allocated to other parts of the horizontal blanking period and the vertical blanking period. In this control period, for example, vertical synchronization signals, horizontal synchronization signals, control packets, and the like, which are data related to control, of auxiliary data are transmitted.

図35は、HDMI端子211,251のピン配列の一例を示している。図35に示すピン配列はタイプA(type-A)と呼ばれている。   FIG. 35 shows an example of the pin arrangement of the HDMI terminals 211 and 251. The pin arrangement shown in FIG. 35 is called type A (type-A).

TMDSチャネル#iの差動信号であるTMDS Data#i+とTMDS Data#i−が伝送される差動線である2本のラインは、TMDS Data#i+が割り当てられているピン(ピン番号が1,4,7のピン)と、TMDS Data#i−が割り当てられているピン(ピン番号が3,6,9のピン)に接続される。   Two lines, which are differential lines through which TMDS Data # i + and TMDS Data # i−, which are differential signals of TMDS channel #i, are transmitted are pins to which TMDS Data # i + is assigned (the pin number is 1). , 4, 7) and pins assigned with TMDS Data # i− (pin numbers 3, 6, 9).

また、制御用のデータであるCEC信号が伝送されるCECライン84は、ピン番号が13であるピンに接続され、ピン番号が14のピンは空き(Reserved)ピンとなっている。また、E−EDID等のSDA(Serial Data)信号が伝送されるラインは、ピン番号が16であるピンに接続され、SDA信号の送受信時の同期に用いられるクロック信号であるSCL(Serial Clock)信号が伝送されるラインは、ピン番号が15であるピンに接続される。上述のDDC83は、SDA信号が伝送されるラインおよびSCL信号が伝送されるラインにより構成される。   A CEC line 84 through which a CEC signal as control data is transmitted is connected to a pin having a pin number of 13, and a pin having a pin number of 14 is a reserved pin. A line through which an SDA (Serial Data) signal such as E-EDID is transmitted is connected to a pin having a pin number of 16 and is an SCL (Serial Clock) which is a clock signal used for synchronization when transmitting and receiving the SDA signal. A line through which a signal is transmitted is connected to a pin having a pin number of 15. The above-described DDC 83 includes a line for transmitting the SDA signal and a line for transmitting the SCL signal.

また、上述したようにソース機器がシンク機器の接続を検出するためのHPDライン86は、ピン番号が19であるピンに接続される。また、上述したように電源を供給するためのライン87は、ピン番号が18であるピンに接続される。   Further, as described above, the HPD line 86 for detecting the connection of the sink device by the source device is connected to the pin having the pin number 19. Further, as described above, the line 87 for supplying power is connected to a pin having a pin number of 18.

[立体画像データの各方式におけるTMDS伝送データ例]
ここで、立体画像データの各方式におけるTMDS伝送データ例を説明する。図36は、第1の伝送方式(「Top & Bottom」方式)のTMDS伝送データ例を示している。この場合、1920ピクセル*1080ラインのアクティブビデオ区間に、1920ピクセル(画素)*1080ライン分の有効画素(Active pixel)のデータ(左眼(L)画像データおよび右眼(R)画像データの合成データ)が配置される。この第1の方式の場合、上述したように、左眼画像データおよび右眼画像データは、それぞれ、垂直方向のラインが1/2に間引かれる。ここで、伝送すべき左眼画像データは奇数ラインまたは偶数ラインのいずれかであり、同様に、伝送すべき右眼画像データは奇数ラインまたは偶数ラインのいずれかである。
[Example of TMDS transmission data in each method of stereoscopic image data]
Here, an example of TMDS transmission data in each method of stereoscopic image data will be described. FIG. 36 illustrates an example of TMDS transmission data in the first transmission method (“Top & Bottom” method). In this case, 1920 pixels * 1080 lines of active video section, 1920 pixels (pixels) * 1080 pixel effective pixel (active pixel) data (the synthesis of left eye (L) image data and right eye (R) image data) Data) is arranged. In the case of the first method, as described above, in the left eye image data and the right eye image data, the vertical line is thinned out to 1/2. Here, the left eye image data to be transmitted is either an odd line or an even line, and similarly, the right eye image data to be transmitted is either an odd line or an even line.

図37は、第2の伝送方式(「Side By Side」方式)のTMDS伝送データ例を示している。この場合、1920ピクセル*1080ラインのアクティブビデオ区間に、1920ピクセル(画素)*1080ライン分の有効画素(Active pixel)のデータ(左眼(L)画像データおよび右眼(R)画像データの合成データ)が配置される。この第2の伝送方式の場合、上述したように、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。   FIG. 37 shows an example of TMDS transmission data of the second transmission method (“Side By Side” method). In this case, 1920 pixels * 1080 lines of active video section, 1920 pixels (pixels) * 1080 pixel effective pixel (active pixel) data (the synthesis of left eye (L) image data and right eye (R) image data) Data) is arranged. In the case of this second transmission method, as described above, the left-eye image data and the right-eye image data are each decimated by half of the pixel data in the horizontal direction.

図38は、第3の伝送方式(「Frame Sequential」方式)におけるTMDS伝送データ例を示している。この場合、奇数フィールドの1920ピクセル*1080ラインのアクティブビデオ区間に、1920ピクセル(画素)*1080ライン分の有効画素(Active pixel)の左眼(L)画像データが配置される。また、偶数フィールドの1920ピクセル*1080ラインのアクティブビデオ区間に、1920ピクセル(画素)*1080ライン分の有効画素(Active pixel)の右眼(R)画像データが配置される。   FIG. 38 illustrates an example of TMDS transmission data in the third transmission scheme (“Frame Sequential” scheme). In this case, left-eye (L) image data of 1920 pixels * 1080 lines of effective pixels (Active pixels) is arranged in an active video section of 1920 pixels * 1080 lines in an odd field. Also, right-eye (R) image data of effective pixels (active pixels) for 1920 pixels * 1080 lines is arranged in an active video section of 1920 pixels * 1080 lines in the even field.

なお、図38に示す「Frame Sequential」方式におけるTMDS伝送データ例は、HDMI 1.4(New HDMI)での「Frame Sequential」方式を示している。この場合、図39(a)に示すように、各フレーム期間Vfreqにおいて、奇数フィールドに左眼画像データが配置され、偶数フィールドに右眼画像データが配置されている。   Note that the TMDS transmission data example in the “Frame Sequential” method illustrated in FIG. 38 indicates the “Frame Sequential” method in HDMI 1.4 (New HDMI). In this case, as shown in FIG. 39A, in each frame period Vfreq, the left eye image data is arranged in the odd field and the right eye image data is arranged in the even field.

しかし、HDMI 1.3(Legacy HDMI)での「Frame Sequential」方式の場合には、図39(b)に示すように、フレーム期間Vfreq毎に、左眼画像データと右眼画像データとは交互に伝送される。この場合、フレーム毎に伝送される画像データが左眼画像データ、右眼画像データのいずれであるかを示す情報(L,Rのsignaling情報)を、ソース機器はシンク機器に送ることが必要となる。   However, in the case of the “Frame Sequential” method in HDMI 1.3 (Legacy HDMI), as shown in FIG. 39B, left-eye image data and right-eye image data are alternately transmitted every frame period Vfreq. Is done. In this case, the source device needs to send information (L and R signaling information) indicating whether the image data transmitted for each frame is left-eye image data or right-eye image data to the sink device. Become.

「Top & Bottom」方式、「Side By Side」方式、「Frame Sequential」方式の立体画像データをシンク機器に送信する場合、ソース機器側で方式を指定し、さらに「Frame Sequential」方式の場合には、L,Rをフレーム毎にsignalingする。   When transmitting 3D image data of the “Top & Bottom”, “Side By Side”, or “Frame Sequential” method to the sink device, specify the method on the source device side, and in the case of the “Frame Sequential” method , L and R are signaled for each frame.

例えば、以下のシンタクスをLegacy HDMI仕様のブランキングに定義されているVendor Specific、あるいはAVI InfoFrame、もしくはReservedの一つを新規定義して、伝送する。   For example, the following syntax is transmitted by newly defining one of Vendor Specific, AVI InfoFrame, or Reserved defined in Blanking of the Legacy HDMI specification.

HDMI 1.3の場合、ブランキング期間で送る情報としては、次のものが定義されている。
InfoFrame Type # (8bits)
--------------------------
0x01: Vendor Specific
0x02: AVI InfoFrame
0x03: Source Product Description
0x04: Audio InfoFrame
0x05: MPEG Source
0x06 - 0xFF Reserved
In the case of HDMI 1.3, the following information is defined as information sent during the blanking period.
InfoFrame Type # (8bits)
--------------------------
0x01: Vendor Specific
0x02: AVI InfoFrame
0x03: Source Product Description
0x04: Audio InfoFrame
0x05: MPEG Source
0x06-0xFF Reserved

このうちの、Vendor Specific、あるいはAVI InfoFrame、もしくは未使用領域の一つを新規定義して、以下のようにする。

3DVideoFlag 1bit (0: 2D, 1: 3D)
if (3DVideoFlag) {
3DVideoFormat 3bits (0x0: Frame Packing Left View
0x1: Frame Packing Right View
0x2: Side by Side
0x4: Top & Bottom by Frame
0x6: Top & Bottom by Field
0x3,5,7: Reserved )
Reserved 4bits (0x0)
}
else {
Reserved 7bits (0x0)
}
Of these, Vendor Specific, AVI InfoFrame, or one of unused areas is newly defined as follows.

3DVideoFlag 1bit (0: 2D, 1: 3D)
if (3DVideoFlag) {
3DVideoFormat 3bits (0x0: Frame Packing Left View
0x1: Frame Packing Right View
0x2: Side by Side
0x4: Top & Bottom by Frame
0x6: Top & Bottom by Field
(0x3,5,7: Reserved)
Reserved 4bits (0x0)
}
else {
Reserved 7bits (0x0)
}

上述の情報には、3次元画像データおよび2次元画像データの切り替え情報(1ビットの3DVideoFlag情報)と、3次元画像データのフォーマットの指定あるいは左眼画像データおよび右眼画像データの切り替えの情報(3ビットの3DVideoFormat情報)が含まれている。   The above information includes switching information between 3D image data and 2D image data (1-bit 3D Video Flag information), specification of the format of 3D image data, or switching information between left eye image data and right eye image data ( 3bit 3DVideoFormat information).

なお、この情報は、同様の内容が放送されるビットストリームの中において、ピクチャーヘッダあるいはそれに相当するタイミングで送られる補助情報に定義されるべきものである。この場合、このビットストリームには、3次元画像データ(左眼画像データおよび右眼画像データからなる立体画像データ)または2次元画像データが択一的に含まれる。
受信機(セットトップボックス200)では、そのストリームを受信した際に、このシグナリング情報を後段のデジタルインタフェースへ送ることで、表示ディスプレイ(テレビ受信機300)において正確な3D変換が行えるようにとり図る。
This information should be defined as auxiliary information that is sent at a timing corresponding to a picture header in a bitstream in which similar contents are broadcast. In this case, the bit stream alternatively includes three-dimensional image data (stereoscopic image data including left-eye image data and right-eye image data) or two-dimensional image data.
When the receiver (set top box 200) receives the stream, it sends this signaling information to the digital interface at the subsequent stage so that accurate 3D conversion can be performed on the display (television receiver 300).

また、受信機は、切り替え情報(1ビットの3DVideoFlag情報)が3次元画像データを示すとき、つまりデータストリームが3次元画像データを含むとき、この3次元画像データを処理するためのソフトウェアを放送サーバ等の外部機器からダウンロードしてインストールするようにしてもよい。   In addition, when the switching information (1-bit 3DVideoFlag information) indicates 3D image data, that is, when the data stream includes 3D image data, the receiver broadcasts software for processing the 3D image data. You may make it download and install from external apparatuses, such as.

例えば、上述の3D情報を伝送するため、HDMI1.3対応のシステム上に追加で対応すること、あるいはHDMI1.4対応のシステムのソフトウェアを更新することが必要となる。そのため、ソフトウェアのアップデートの際には、例えば、上述の3D情報を伝送するために必要なファームウェア、ミドルウェア関係のソフトウェアがアップデートの対象となる。   For example, in order to transmit the above-mentioned 3D information, it is necessary to additionally support a system that supports HDMI 1.3 or update software of a system that supports HDMI 1.4. Therefore, when updating software, for example, firmware and middleware related software necessary for transmitting the above-mentioned 3D information are to be updated.

上述したように、図1に示す立体画像表示システム10においては、左眼画像および右眼画像の一方に対する他方の視差情報に基づいて、左眼画像および右眼画像に重畳する同一の重畳情報(グラフィクス情報、テキスト情報など)に視差が付与される。そのため、左眼画像および右眼画像に重畳される同一の重畳情報として、画像内の各物体(オブジェクト)の遠近感に応じて視差調整が施されたものを用いることができ、重畳情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。   As described above, in the stereoscopic image display system 10 illustrated in FIG. 1, the same superimposition information (superimposed on the left eye image and the right eye image) based on the parallax information on the other of the left eye image and the right eye image ( Disparity is given to graphics information, text information, and the like. Therefore, as the same superimposition information superimposed on the left eye image and the right eye image, information on which parallax adjustment is performed according to the perspective of each object (object) in the image can be used. In this case, it is possible to maintain perspective consistency with each object in the image.

<2.変形例>
なお、上述実施の形態においては、放送局100側からセットトップボックス200に画像内の所定位置の視差ベクトルが送信されてくる。この場合、セットトップボックス200は、受信された立体画像データに含まれる左眼画像データおよび右眼画像データに基づいて視差ベクトルを得ることを必要とせず、セットトップボックス200の処理が簡単となる。
<2. Modification>
In the above-described embodiment, the disparity vector at a predetermined position in the image is transmitted from the broadcast station 100 side to the set top box 200. In this case, the set top box 200 does not need to obtain a disparity vector based on the left eye image data and the right eye image data included in the received stereoscopic image data, and the processing of the set top box 200 is simplified. .

しかし、立体画像データの受信側、上述の実施の形態ではセットトップボックス200に、図2の送信データ生成部110における視差ベクトル検出部114と同等の視差ベクトル検出部を配置することも考えられる。この場合、視差ベクトルが送られてこなくても、視差ベクトルを用いた処理が可能となる。   However, a disparity vector detection unit equivalent to the disparity vector detection unit 114 in the transmission data generation unit 110 in FIG. 2 may be arranged on the stereoscopic image data reception side, in the above-described embodiment, in the set top box 200. In this case, processing using the parallax vector is possible even if the parallax vector is not sent.

図40は、例えば、セットトップボックス200に設けられるビットストリーム処理部201Cの構成例を示している。この図40において、図27と対応する部分には同一符号を付し、その詳細説明は省略する。このビットストリーム処理部201Cでは、図27に示すビットストリーム処理部201における視差ベクトルデコーダ225の代わりに、視差ベクトル検出部233が配置されている。   FIG. 40 illustrates a configuration example of a bit stream processing unit 201C provided in the set top box 200, for example. In FIG. 40, portions corresponding to those in FIG. 27 are denoted by the same reference numerals, and detailed description thereof is omitted. In this bit stream processing unit 201C, a disparity vector detection unit 233 is arranged instead of the disparity vector decoder 225 in the bit stream processing unit 201 shown in FIG.

この視差ベクトル検出部233は、ビデオデコーダ221で得られる立体画像データを構成する左眼画像データおよび右眼画像データに基づいて、画像内の所定位置における視差ベクトルを検出する。そして、この視差ベクトル検出部233は、検出した視差ベクトルを、立体画像用グラフィクス発生部206、立体画像用テキスト発生部227およびマルチチャネルスピーカ出力制御部229に供給する。   The disparity vector detection unit 233 detects a disparity vector at a predetermined position in the image based on the left eye image data and the right eye image data constituting the stereoscopic image data obtained by the video decoder 221. The disparity vector detection unit 233 supplies the detected disparity vector to the stereoscopic image graphics generation unit 206, the stereoscopic image text generation unit 227, and the multi-channel speaker output control unit 229.

詳細説明は省略するが、この図40に示すビットストリーム処理部201Cのその他は、図27に示すビットストリーム処理部201と同様に構成されている。   Although the detailed description is omitted, the rest of the bit stream processing unit 201C shown in FIG. 40 is configured in the same manner as the bit stream processing unit 201 shown in FIG.

また、上述実施の形態においては、立体画像表示システム10が、放送局100、セットトップボックス200およびテレビ受信機300で構成されているものを示した。しかし、テレビ受信機300は、図31に示すように、セットトップボックス200内のビットストリーム処理部201と同等に機能するビットストリーム処理部201を備えている。したがって、図41に示すように、放送局100およびテレビ受信機300で構成される立体画像表示システム10Aも考えられる。   In the above-described embodiment, the stereoscopic image display system 10 includes the broadcasting station 100, the set top box 200, and the television receiver 300. However, the television receiver 300 includes a bit stream processing unit 201 that functions in the same manner as the bit stream processing unit 201 in the set top box 200, as shown in FIG. Therefore, as shown in FIG. 41, a stereoscopic image display system 10A including a broadcasting station 100 and a television receiver 300 is also conceivable.

また、上述実施例においては、立体画像データを含むデータストリーム(ビットストリームデータ)が放送局100から放送される例を示した。しかし、この発明は、このデータストリームがインターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できることは勿論である。   In the above-described embodiment, an example in which a data stream (bit stream data) including stereoscopic image data is broadcast from the broadcast station 100 has been described. However, it goes without saying that the present invention can be similarly applied to a system in which this data stream is distributed to a receiving terminal using a network such as the Internet.

この発明は、グラフィクス情報、テキスト情報等の重畳情報を画像に重畳して表示する立体画像表示システム等に適用できる。   The present invention can be applied to a stereoscopic image display system that superimposes and displays superimposition information such as graphics information and text information on an image.

10,10A・・・立体画像表示システム、100・・・放送局、110,110A,110B・・・送信データ生成部、111L,111R・・・カメラ、112・・・ビデオフレーミング部、113・・・ビデオエンコーダ、114・・・視差ベクトル検出部、115・・・視差ベクトルエンコーダ、116・・・マイクロホン、117・・・オーディオエンコーダ、118・・・グラフィクス発生部、119・・・グラフィクスエンコーダ、120・・・テキスト発生部、121・・・テキストエンコーダ、122・・・マルチプレクサ、123・・・ストリームフレーミング部、124・・・グラフィクス処理部、125・・・テキスト処理部、200・・・セットトップボックス、201,201A,201B,201C・・・ビットストリーム処理部、202・・・HDMI端子、203・・・アンテナ端子、204・・・デジタルチューナ、205・・・映像信号処理回路、206・・・HDMI送信部、207・・・音声信号処理回路、211・・・CPU、212・・・フラッシュROM、213・・・DRAM、214・・・内部バス、215・・・リモコン受信部、216・・・リモコン送信機、220・・・デマルチプレクサ、221・・・ビデオデコーダ、222・・・グラフィクスデコーダ、223・・・テキストデコーダ、224・・・オーディオデコーダ、225・・・視差ベクトルデコーダ、226・・・立体画像用グラフィクス発生部、227・・・立体画像用テキスト発生部、228・・・ビデオ重畳部、229・・・マルチチャネルスピーカコントロール部、231・・・視差ベクトル抽出部、233・・・視差ベクトル検出部、300・・・テレビ受信機、301・・・3D信号処理部、302・・・HDMI端子、303・・・HDMI受信部、304・・・アンテナ端子、305・・・デジタルチューナ、306・・・ビットストリーム処理部、307・・・映像信号処理回路、308・・・パネル駆動回路、309・・・表示パネル、310・・・音声信号処理回路、311・・・音声増幅回路、312・・・スピーカ、321・・・CPU、322・・・フラッシュROM、323・・・DRAM、324・・・内部バス、325・・・リモコン受信部、326・・・リモコン送信機、400・・・HDMIケーブル   DESCRIPTION OF SYMBOLS 10,10A ... Stereoscopic image display system, 100 ... Broadcast station, 110, 110A, 110B ... Transmission data generation part, 111L, 111R ... Camera, 112 ... Video framing part, 113 ... Video encoder 114... Parallax vector detection unit 115. Parallax vector encoder 116. Microphone 117. Audio encoder 118 118 Graphics generation unit 119 Graphics encoder 120 ... Text generator, 121 ... Text encoder, 122 ... Multiplexer, 123 ... Stream framing unit, 124 ... Graphics processor, 125 ... Text processor, 200 ... Set top Box, 201, 201A, 201B, 201C ... Bi Stream processing unit, 202 ... HDMI terminal, 203 ... antenna terminal, 204 ... digital tuner, 205 ... video signal processing circuit, 206 ... HDMI transmission unit, 207 ... audio signal processing Circuit, 211 ... CPU, 212 ... Flash ROM, 213 ... DRAM, 214 ... Internal bus, 215 ... Remote control receiver, 216 ... Remote control transmitter, 220 ... Demultiplexer 221 ... Video decoder, 222 ... Graphics decoder, 223 ... Text decoder, 224 ... Audio decoder, 225 ... Parallax vector decoder, 226 ... 3D graphics generator, 227 ..Text generation unit for stereoscopic image, 228... Video superimposing unit, 229. Control unit, 231 ... parallax vector extraction unit, 233 ... parallax vector detection unit, 300 ... television receiver, 301 ... 3D signal processing unit, 302 ... HDMI terminal, 303 ... HDMI receiving unit, 304 ... antenna terminal, 305 ... digital tuner, 306 ... bit stream processing unit, 307 ... video signal processing circuit, 308 ... panel driving circuit, 309 ... display panel 310 ... Audio signal processing circuit, 311 ... Audio amplification circuit, 312 ... Speaker, 321 ... CPU, 322 ... Flash ROM, 323 ... DRAM, 324 ... Internal bus, 325: Remote control receiver, 326: Remote control transmitter, 400: HDMI cable

Claims (9)

左眼画像データおよび右眼画像データを含む立体画像データを受信する画像データ受信部と、
上記画像データ受信部で受信される立体画像データに含まれる上記左眼画像データおよび上記右眼画像データが処理されて得られた、左眼画像および右眼画像の一方に対する他方の視差情報に基づいて、上記左眼画像および上記右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理部
を備える立体画像データ受信装置。
An image data receiving unit for receiving stereoscopic image data including left eye image data and right eye image data;
Based on parallax information of the other of the left eye image and the right eye image obtained by processing the left eye image data and the right eye image data included in the stereoscopic image data received by the image data receiving unit Then, parallax is given to the same superimposition information superimposed on the left eye image and the right eye image, and data of the left eye image on which the superposition information is superimposed and data on the right eye image on which the superposition information is superimposed A stereoscopic image data receiving device comprising an image data processing unit to obtain.
上記画像データ処理部は、上記左眼画像および上記右眼画像に重畳する同一の重畳情報に、該重畳情報の重畳位置に応じた視差を付与する
請求項1に記載の立体画像データ受信装置。
The stereoscopic image data receiving device according to claim 1, wherein the image data processing unit gives a parallax corresponding to a superposition position of the superimposition information to the same superposition information superimposed on the left eye image and the right eye image.
上記画像データ受信部で受信される上記立体画像データに同期して、上記視差情報を受信する視差情報受信部をさらに備える
請求項1または請求項2に記載の立体画像データ受信装置。
The stereoscopic image data receiving device according to claim 1, further comprising: a parallax information receiving unit that receives the parallax information in synchronization with the stereoscopic image data received by the image data receiving unit.
上記画像データ受信部で受信された上記立体画像データに含まれる上記左眼画像データおよび上記右眼画像データに基づき、画像内の所定位置において、左眼画像および右眼画像の一方に対する他方の視差情報を得る視差情報取得部をさらに備える
請求項1または請求項2に記載の立体画像データ受信装置。
Based on the left eye image data and the right eye image data included in the stereoscopic image data received by the image data receiving unit, the other parallax with respect to one of the left eye image and the right eye image at a predetermined position in the image The stereoscopic image data receiving device according to claim 1, further comprising a parallax information acquiring unit that obtains information.
上記画像データ処理部で得られた上記左眼画像データおよび上記右眼画像データを含む立体画像データを外部機器に送信する画像データ送信部をさらに備える
請求項1に記載の立体画像データ受信装置。
The stereoscopic image data receiving device according to claim 1, further comprising: an image data transmitting unit configured to transmit stereoscopic image data including the left eye image data and the right eye image data obtained by the image data processing unit to an external device.
上記画像データ送信部は、上記左眼画像データおよび上記右眼画像データをフレームシーケンシャル方式で上記外部機器に送信し、各フレームで送信される画像データが上記左眼画像データであるか上記右眼画像データであるかを判別するための信号を上記外部機器にさらに送信する
請求項5に記載の立体画像データ受信装置。
The image data transmission unit transmits the left eye image data and the right eye image data to the external device in a frame sequential manner, and whether the image data transmitted in each frame is the left eye image data or the right eye image The stereoscopic image data receiving device according to claim 5, further transmitting a signal for determining whether the image data is image data to the external device.
上記画像データ処理部で得られた上記左眼画像データおよび上記右眼画像データによる立体画像表示のための画像を表示する画像表示部をさらに備える
請求項1に記載の立体画像データ受信装置。
The stereoscopic image data receiving device according to claim 1, further comprising an image display unit that displays an image for stereoscopic image display using the left eye image data and the right eye image data obtained by the image data processing unit.
マルチチャネルのスピーカと、
上記左眼画像データおよび上記右眼画像データの一方に対する他方の視差情報に基づいて、上記マルチチャネルのスピーカ出力を制御する制御部をさらに備える
請求項1に記載の立体画像データ受信装置。
A multi-channel speaker;
The stereoscopic image data receiving device according to claim 1, further comprising a control unit that controls the multi-channel speaker output based on parallax information on the other of the left eye image data and the right eye image data.
左眼画像データおよび右眼画像データを含む立体画像データを受信する画像データ受信ステップと、
左眼画像および右眼画像の一方に対する他方の視差情報に基づいて、上記左眼画像および上記右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを含む立体画像データを得る画像データ処理ステップ
を備える立体画像データ受信方法。
An image data receiving step for receiving stereoscopic image data including left eye image data and right eye image data;
Based on the parallax information of the other of the left eye image and the right eye image, the left eye image in which parallax is given to the same superimposition information superimposed on the left eye image and the right eye image, and the superimposition information is superimposed A stereo image data receiving method comprising: an image data processing step of obtaining stereo image data including the right eye image data on which the superposition information and the superposition information are superimposed.
JP2013094585A 2013-04-26 2013-04-26 Device and method for receiving stereoscopic image data Ceased JP2013176141A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013094585A JP2013176141A (en) 2013-04-26 2013-04-26 Device and method for receiving stereoscopic image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013094585A JP2013176141A (en) 2013-04-26 2013-04-26 Device and method for receiving stereoscopic image data

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009248357A Division JP2011010255A (en) 2009-10-29 2009-10-29 Three-dimensional image data transmitting method, and three-dimensional image data receiving apparatus and method

Publications (1)

Publication Number Publication Date
JP2013176141A true JP2013176141A (en) 2013-09-05

Family

ID=49268575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013094585A Ceased JP2013176141A (en) 2013-04-26 2013-04-26 Device and method for receiving stereoscopic image data

Country Status (1)

Country Link
JP (1) JP2013176141A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09116931A (en) * 1995-10-18 1997-05-02 Sanyo Electric Co Ltd Method and identifying left and right video image for time division stereoscopic video signal
JPH10150608A (en) * 1996-11-19 1998-06-02 Sanyo Electric Co Ltd User-side terminal of digital broadcasting system
JP2004274125A (en) * 2003-03-05 2004-09-30 Sony Corp Image processing apparatus and method
JP2006325165A (en) * 2005-05-20 2006-11-30 Excellead Technology:Kk Device, program and method for generating telop
JP2009089209A (en) * 2007-10-02 2009-04-23 Sony Computer Entertainment Inc Transmission device, image data transmitting method, reception device, and image display method of reception device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09116931A (en) * 1995-10-18 1997-05-02 Sanyo Electric Co Ltd Method and identifying left and right video image for time division stereoscopic video signal
JPH10150608A (en) * 1996-11-19 1998-06-02 Sanyo Electric Co Ltd User-side terminal of digital broadcasting system
JP2004274125A (en) * 2003-03-05 2004-09-30 Sony Corp Image processing apparatus and method
JP2006325165A (en) * 2005-05-20 2006-11-30 Excellead Technology:Kk Device, program and method for generating telop
JP2009089209A (en) * 2007-10-02 2009-04-23 Sony Computer Entertainment Inc Transmission device, image data transmitting method, reception device, and image display method of reception device

Similar Documents

Publication Publication Date Title
JP5521486B2 (en) Stereoscopic image data transmitting apparatus and stereoscopic image data transmitting method
WO2011001851A1 (en) Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception device
JP5446913B2 (en) Stereoscopic image data transmitting apparatus and stereoscopic image data transmitting method
WO2011001854A1 (en) Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method
JP5407957B2 (en) Stereoscopic image data transmitting apparatus and stereoscopic image data receiving apparatus
JP5402715B2 (en) Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method
JP5407968B2 (en) Stereoscopic image data transmitting apparatus and stereoscopic image data receiving apparatus
TWI452892B (en) Image data transmission device, control method and program
TWI437873B (en) Three-dimensional image data transmission method, three-dimensional image data transmission method, three-dimensional image data receiving method
JP2011166757A (en) Transmitting apparatus, transmitting method, and receiving apparatus
WO2012063675A1 (en) Stereoscopic image data transmission device, stereoscopic image data transmission method, and stereoscopic image data reception device
JP2011010255A (en) Three-dimensional image data transmitting method, and three-dimensional image data receiving apparatus and method
JP2013176141A (en) Device and method for receiving stereoscopic image data

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141128

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150414

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20150825