JP2014131272A - Receiving device and information processing method - Google Patents

Receiving device and information processing method Download PDF

Info

Publication number
JP2014131272A
JP2014131272A JP2013263257A JP2013263257A JP2014131272A JP 2014131272 A JP2014131272 A JP 2014131272A JP 2013263257 A JP2013263257 A JP 2013263257A JP 2013263257 A JP2013263257 A JP 2013263257A JP 2014131272 A JP2014131272 A JP 2014131272A
Authority
JP
Japan
Prior art keywords
eye image
image data
data
timing
hdmi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013263257A
Other languages
Japanese (ja)
Inventor
Hiroshi Takizuka
博志 瀧塚
Koichi Takenaka
康一 武中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Sony Corp
Original Assignee
Sony Corp
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Computer Entertainment Inc filed Critical Sony Corp
Priority to JP2013263257A priority Critical patent/JP2014131272A/en
Publication of JP2014131272A publication Critical patent/JP2014131272A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To excellently display a three-dimensional image.SOLUTION: A data processing section acquires right-eye image data and left-eye image data after three-dimensional image data is processed which includes the right-eye image data and the left-eye image data for displaying a three-dimensional image. A control section controls timings of the right-eye image data and the left-eye image data which are acquired by the data processing section so as to match the display timing of the three-dimensional image. A display section displays the image by the right-eye image data and the left-eye image data whose timings are adjusted.

Description

この発明は、受信装置に関し、特に、立体画像を表示するための左眼画像データおよび右岸画像データを取り扱う受信装置に関する。   The present invention relates to a receiving apparatus, and more particularly to a receiving apparatus that handles left-eye image data and right-bank image data for displaying a stereoscopic image.

近年、例えば、DVD(Digital Versatile Disc)レコーダや、セットトップボックス、その他のAVソース(Audio Visual source)から、テレビ受信機、プロジェクタ、その他のディスプレイに対して、デジタル映像信号、すなわち、非圧縮(ベースバンド)の映像信号(画像データ)と、その映像信号に付随するデジタル音声信号(音声データ)とを、高速に伝送する通信インタフェースとして、HDMI(High Definition Multimedia Interface)等が普及しつつある。例えば、非特許文献1には、HDMI規格の詳細についての記載がある。   In recent years, for example, digital video signals, that is, uncompressed (DVD) (Digital Versatile Disc) recorders, set-top boxes, and other AV sources (Audio Visual source) from television receivers, projectors, and other displays. As a communication interface for transmitting a baseband video signal (image data) and a digital audio signal (audio data) accompanying the video signal at high speed, HDMI (High Definition Multimedia Interface) or the like is becoming widespread. For example, Non-Patent Document 1 describes details of the HDMI standard.

High-Definition Multimedia Interface Specification Version 1.3a,November 10 2006High-Definition Multimedia Interface Specification Version 1.3a, November 10 2006

例えば、AVソースからディスプレイに対して、立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データを送信して、ディスプレイにおいて、両眼視差を利用した立体画像表示を行うことが考えられる。   For example, stereoscopic image data including left-eye image data and right-eye image data for displaying a stereoscopic image is transmitted from an AV source to the display, and stereoscopic image display using binocular parallax is performed on the display. It is possible.

立体画像の表示方式は、表示タイミングに関して、以下の2種類に大別できる。一つは、左眼画像および右眼画像が同じタイミングで表示される方式である。この方式には、アナグリフ方式、偏光メガネ方式、裸眼方式が含まれる。他の一つは、左眼画像および右眼画像が交互に表示される方式である。この方式には、シャッターグラス方式が含まれる。   Three-dimensional image display methods can be roughly classified into the following two types with respect to display timing. One is a method in which the left eye image and the right eye image are displayed at the same timing. This method includes an anaglyph method, a polarized glasses method, and a naked eye method. The other one is a method in which the left eye image and the right eye image are alternately displayed. This method includes a shutter glass method.

アナグリフ方式では、補色関係にある2色(主に赤と青)が用いられて両眼視差のついた左眼画像および右眼画像が構成され、それらを左右眼に分割して呈示するために、共通の透過波長域を持たないカラーフィルタが付加されたグラスが用いられる。また、偏光メガネ方式では、偏光面が直交した2つの直線偏光が用いられて左眼画像および右眼画像が構成され、それらを左右眼に分割して呈示するために、偏光フィルタが付加されたグラスが用いられる。   In the anaglyph method, two colors (mainly red and blue) that are complementary colors are used to form a left-eye image and a right-eye image with binocular parallax, which are divided into left and right eyes for presentation. Glass to which a color filter having no common transmission wavelength range is added is used. In the polarized glasses method, two linearly polarized lights with orthogonal polarization planes are used to form a left-eye image and a right-eye image, and a polarizing filter is added to divide and present them to the left and right eyes. Glass is used.

また、裸眼方式は、ディスプレイに左眼画像および右眼画像の縦ストライプ状の分割画像が交互に表示され、それらを左右眼に分割して呈示するために、パララックスバリア、レンチキュラが用いられる。また、シャッターグラス方式では、左眼画像および右眼画像が、例えば倍フレームレートで交互に表示され、それらを左右眼に分割して呈示するために、液晶シャッタが付加されたグラスが用いられる。   Further, in the naked eye method, a left-eye image and a right-eye image of a vertically striped divided image are alternately displayed on a display, and a parallax barrier and a lenticular are used to divide and present them in the left and right eyes. In the shutter glass method, a left eye image and a right eye image are alternately displayed at a double frame rate, for example, and a glass to which a liquid crystal shutter is added is used to present the left eye image and the left eye.

また、左眼画像データおよび右眼画像データは、撮影タイミングに関して、以下の2種類に大別できる。一つは、左眼画像データおよび右眼画像データは、左眼画像および右眼画像を同じタイミングで撮影して得られたものである。この場合、例えば、左眼画像データおよび右眼画像データは、左右の画像が、2眼のカメラで、同期を合わせて同じタイミングで撮影することで得られる。   Further, the left eye image data and the right eye image data can be roughly classified into the following two types with respect to photographing timing. One is that the left eye image data and the right eye image data are obtained by photographing the left eye image and the right eye image at the same timing. In this case, for example, the left eye image data and the right eye image data are obtained by capturing the left and right images at the same timing in synchronism with a two-lens camera.

他の一つは、左眼画像データおよび右眼画像データは、左眼画像および右眼画像が交互に倍フレームレートで撮影して得られたものである。この場合、例えば、左眼画像データおよび右眼画像データは、1眼のカメラで、液晶シャッタ、プリズム等を用いた構成により、交互に倍フレームレートで撮影することで得られる。   The other one is that the left eye image data and the right eye image data are obtained by alternately capturing the left eye image and the right eye image at the double frame rate. In this case, for example, the left-eye image data and the right-eye image data are obtained by alternately photographing at a double frame rate with a single-lens camera and using a liquid crystal shutter, a prism, and the like.

上述したように、AVソースからディスプレイに対して立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データを送信し、ディスプレイにおいて両眼視差を利用した立体画像表示を行う場合、左眼画像データおよび右眼画像データの撮影タイミングが、左眼画像および右眼画像の表示タイミングと異なっている場合には、動きのある画像で画質が低下し、また、視聴者の疲労感が増す等の不都合がある。   As described above, stereoscopic image data including left-eye image data and right-eye image data for displaying a stereoscopic image from the AV source to the display is transmitted, and stereoscopic image display using binocular parallax is performed on the display. When the left eye image data and the right eye image data are captured at different timings from the display timing of the left eye image and the right eye image, the image quality is lowered with a moving image, and the viewer is fatigued. There are inconveniences such as increased feeling.

ここで、撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。一つは、左眼画像データおよび右眼画像データが交互に撮影して得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。他の一つは、左眼画像データおよび右眼画像データが同じタイミングで撮影して得られたものであり、左眼画像および右眼画像が交互に表示される場合である。   Here, when the photographing timing and the display timing are different, there are the following two methods. One is a case where the left eye image data and the right eye image data are obtained by alternately photographing, and the left eye image and the right eye image are displayed at the same timing. The other one is obtained when the left eye image data and the right eye image data are obtained by photographing at the same timing, and the left eye image and the right eye image are alternately displayed.

なお、上述のAVソースがゲーム機である場合も考えられる。ゲーム機では、ゲーム画像としての立体画像を表示する左眼画像データおよび右眼画像データが動的に生成される。このようにゲーム機で生成される左眼画像データおよび右眼画像データのタイミング(撮影タイミングに相当するタイミング)としては、左眼画像データおよび右眼画像データが同じタイミングになるようにすることもできるし、左眼画像データおよび右眼画像データが交互に倍フレームレートになるようにすることもできる。ゲーム機で生成される左眼画像データおよび右眼画像データのタイミングが、ディスプレイにおける左眼画像および右眼画像の表示タイミングと異なっている場合にも、動きのある画像で画質が低下し、また、視聴者の疲労感が増す等の不都合がある。   Note that the AV source described above may be a game machine. In the game machine, left-eye image data and right-eye image data for displaying a stereoscopic image as a game image are dynamically generated. As described above, the timing of the left eye image data and the right eye image data generated by the game machine (timing corresponding to the shooting timing) may be set so that the left eye image data and the right eye image data have the same timing. Alternatively, the left eye image data and the right eye image data can be alternately set to a double frame rate. Even when the timing of the left-eye image data and right-eye image data generated by the game machine is different from the display timing of the left-eye image and right-eye image on the display, the image quality of the moving image is reduced, and There are inconveniences such as an increased feeling of viewer fatigue.

この発明の目的は、立体画像を良好に表示することにある。   An object of the present invention is to display a stereoscopic image satisfactorily.

この発明の概念は、
立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データを処理して上記左眼画像データおよび上記右眼画像データを得るデータ処理部と、
上記立体画像の表示タイミングに合うように、上記データ処理部で得られた上記左眼画像データおよび上記右眼画像データのタイミングを制御する制御部と、
上記制御部でタイミングが制御された左眼画像データおよび上記右眼画像データによる画像を表示する表示部を備える
受信装置にある。
The concept of this invention is
A data processing unit that processes stereoscopic image data including left-eye image data and right-eye image data for displaying a stereoscopic image to obtain the left-eye image data and the right-eye image data;
A control unit for controlling the timing of the left eye image data and the right eye image data obtained by the data processing unit so as to match the display timing of the stereoscopic image;
The receiving apparatus includes a display unit that displays an image based on the left-eye image data whose timing is controlled by the control unit and the right-eye image data.

この発明においては、データ処理部により、立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データが処理されて左眼画像データおよび右眼画像データが得られる。制御部により、立体画像の表示タイミングに合うように、データ処理部で得られた左眼画像データおよび右眼画像データのタイミングが制御される。そして、表示部により、このタイミング調整された左眼画像データおよび右眼画像データによる画像が表示される。これにより、立体画像を良好に表示することが可能となる。   In the present invention, the data processing unit processes the stereoscopic image data including the left eye image data and the right eye image data for displaying the stereoscopic image, thereby obtaining the left eye image data and the right eye image data. The control unit controls the timing of the left eye image data and the right eye image data obtained by the data processing unit so as to match the display timing of the stereoscopic image. Then, the display unit displays an image based on the left-eye image data and the right-eye image data adjusted in timing. Thereby, it becomes possible to display a stereoscopic image satisfactorily.

この発明によれば、立体画像を良好に表示できる。   According to this invention, a stereoscopic image can be displayed satisfactorily.

この発明の第1の実施の形態としてのAVシステムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of an AV system as a first embodiment of the present invention. AVシステムを構成するディスクプレーヤ(ソース機器)の構成例を示すブロック図である。It is a block diagram which shows the structural example of the disc player (source device) which comprises AV system. AVシステムを構成するテレビ受信機(シンク機器)の構成例を示すブロック図である。It is a block diagram which shows the structural example of the television receiver (sink apparatus) which comprises AV system. HDMI送信部(HDMIソース)とHDMI受信部(HDMIシンク)の構成例を示すブロック図である。It is a block diagram which shows the structural example of an HDMI transmission part (HDMI source) and an HDMI receiving part (HDMI sink). HDMI送信部を構成するHDMIトランスミッタと、HDMI受信部を構成するHDMIレシーバの構成例を示すブロック図である。It is a block diagram which shows the structural example of the HDMI transmitter which comprises an HDMI transmission part, and the HDMI receiver which comprises an HDMI receiving part. TMDS伝送データの構造例(横×縦が1920ピクセル×1080ラインの画像データが伝送される場合)を示す図である。It is a figure which shows the example of a structure of TMDS transmission data (when the image data of horizontal x length is 1920 pixels x 1080 lines is transmitted). ソース機器およびシンク機器のHDMIケーブルが接続されるHDMI端子のピン配列(タイプA)を示す図である。It is a figure which shows the pin arrangement (type A) of the HDMI terminal to which the HDMI cable of the source device and the sink device is connected. 左眼(L)および右眼(R)の画像データ(1920×1080pのピクセルフォーマットの画像データ)を示す図である。It is a figure which shows the image data (Image data of a 1920 * 1080p pixel format) of the left eye (L) and the right eye (R). 3D(立体)画像データの伝送方式である、(a)左眼画像データと右眼画像データとをフィールド毎に順次切換えて伝送する方式、(b)左眼画像データの1ライン分と右眼画像データの1ライン分とを交互に伝送する方式、(c)水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式、を説明するための図である。3D (stereoscopic) image data transmission method, (a) a method of sequentially switching left eye image data and right eye image data for each field, and (b) one line of left eye image data and the right eye A method of alternately transmitting one line of image data, (c) a method of transmitting pixel data of left-eye image data in the first half of the horizontal direction, and a method of transmitting pixel data of right-eye image data in the second half of the horizontal direction, It is a figure for demonstrating. 左眼画像データと右眼画像データとをフィールド毎に順次切換えて伝送する方式におけるTMDS伝送データ例を示す図である。It is a figure which shows the TMDS transmission data example in the system which switches and transmits left-eye image data and right-eye image data sequentially for every field. 左眼画像データの1ライン分と右眼画像データの1ライン分とを交互に伝送する方式におけるTMDS伝送データ例を示す図である。It is a figure which shows the example of TMDS transmission data in the system which transmits one line of left eye image data and one line of right eye image data alternately. 水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式におけるTMDS伝送データ例を示す図である。It is a figure which shows the TMDS transmission data example in the system which transmits the pixel data of left eye image data in the first half of a horizontal direction, and transmits the pixel data of right eye image data in the second half of a horizontal direction. E−EDIDデータの構造例を示す図である。It is a figure which shows the structural example of E-EDID data. Vendor Speciffic 領域のデータ構造例を示す図である。It is a figure which shows the example of a data structure of a Vendor Specific area | region. 左眼画像データおよび右眼画像データが交互に撮影されて得られたものであり、左眼画像および右眼画像が同じタイミングで表示される第1の場合に映像信号処理回路で行われるタイミング補正処理を説明するための図である。Timing correction performed in the video signal processing circuit in the first case in which the left eye image data and the right eye image data are obtained by alternately photographing and the left eye image and the right eye image are displayed at the same timing. It is a figure for demonstrating a process. 左眼画像データおよび右眼画像データが同じタイミングで撮影されて得られたものであり、左眼画像および右眼画像が交互に表示される第2の場合に映像信号処理回路で行われるタイミング補正処理を説明するための図である。Timing correction performed in the video signal processing circuit in the second case in which the left eye image data and the right eye image data are obtained by shooting at the same timing, and the left eye image and the right eye image are alternately displayed. It is a figure for demonstrating a process. AVI InfoFrameパケットのデータ構造例を示す図である。It is a figure which shows the example of a data structure of an AVI InfoFrame packet. 左眼画像データおよび右眼画像データが交互に撮影されて得られたものであり、左眼画像および右眼画像が同じタイミングで表示される第1の場合に3D信号処理部で行われるタイミング補正処理を説明するための図である。Timing correction performed in the 3D signal processing unit in the first case in which the left eye image data and the right eye image data are obtained by alternately photographing and the left eye image and the right eye image are displayed at the same timing. It is a figure for demonstrating a process. この発明の第2の実施の形態としてのAVシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the AV system as 2nd Embodiment of this invention. AVシステムを構成するゲーム機(ソース機器)の構成例を示すブロック図である。It is a block diagram which shows the structural example of the game machine (source device) which comprises AV system. この発明の第3の実施の形態としてのAVシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the AV system as the 3rd Embodiment of this invention. AVシステムを構成するAVアンプ(リピータ機器)の構成例を示すブロック図である。It is a block diagram which shows the structural example of AV amplifier (repeater apparatus) which comprises AV system.

以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.変形例
Hereinafter, modes for carrying out the invention (hereinafter referred to as “embodiments”) will be described. The description will be given in the following order.
1. 1. First embodiment 2. Second embodiment 3. Third embodiment Modified example

<1.第1の実施の形態>
[AVシステムの構成例]
図1は、第1の実施の形態としてのAV(Audio Visual)システム200の構成例を示している。このAVシステム200は、ソース機器としてのディスクプレーヤ210と、シンク機器としてのテレビ受信機250とを有している。
<1. First Embodiment>
[Example of AV system configuration]
FIG. 1 shows a configuration example of an AV (Audio Visual) system 200 according to the first embodiment. The AV system 200 includes a disc player 210 as a source device and a television receiver 250 as a sink device.

ディスクプレーヤ210およびテレビ受信機250は、HDMIケーブル350を介して接続されている。ディスクプレーヤ210には、HDMI送信部(HDMI TX)212が接続されたHDMI端子211が設けられている。テレビ受信機250には、HDMI受信部(HDMI RX)252が接続されたHDMI端子251が設けられている。HDMIケーブル350の一端はディスクプレーヤ210のHDMI端子211に接続され、このHDMIケーブル350の他端はテレビ受信機250のHDMI端子251に接続されている。   The disc player 210 and the television receiver 250 are connected via an HDMI cable 350. The disc player 210 is provided with an HDMI terminal 211 to which an HDMI transmission unit (HDMI TX) 212 is connected. The television receiver 250 is provided with an HDMI terminal 251 to which an HDMI receiving unit (HDMI RX) 252 is connected. One end of the HDMI cable 350 is connected to the HDMI terminal 211 of the disc player 210, and the other end of the HDMI cable 350 is connected to the HDMI terminal 251 of the television receiver 250.

図1に示すAVシステム200において、ディスクプレーヤ210からの非圧縮の画像データ(映像信号)はHDMIケーブル350を介してテレビ受信機250に送信され、このテレビ受信機250ではディスクプレーヤ210からの画像データによる画像が表示される。また、ディスクプレーヤ210からの非圧縮の音声データ(音声信号)はHDMIケーブル350を介してテレビ受信機250に送信され、このテレビ受信機250ではディスクプレーヤ210からの音声データによる音声が出力される。   In the AV system 200 shown in FIG. 1, uncompressed image data (video signal) from the disc player 210 is transmitted to the television receiver 250 via the HDMI cable 350, and the television receiver 250 uses the image from the disc player 210. An image based on the data is displayed. Further, uncompressed audio data (audio signal) from the disc player 210 is transmitted to the television receiver 250 via the HDMI cable 350, and the audio based on the audio data from the disc player 210 is output from the television receiver 250. .

ディスクプレーヤ210からテレビ受信機250に送られる画像データが立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データ(3D画像データ)である場合、テレビ受信機250では、立体画像の表示が行われる。   When the image data sent from the disc player 210 to the television receiver 250 is stereoscopic image data (3D image data) including left-eye image data and right-eye image data for displaying a stereoscopic image, the television receiver 250 A stereoscopic image is displayed.

ここで、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングとしては、同時および交互の2種類がある。撮影タイミングが同じである場合、左眼画像データおよび右眼画像データは、例えば、2眼のカメラで左眼画像および右眼画像が同じタイミングで撮影されて得られたものである。また、撮影タイミングが交互である場合、左眼画像データおよび右眼画像データは、例えば、1眼のカメラで左眼画像および右眼画像が交互のタイミングで撮影されて得られたものである。   Here, there are two types of shooting timings for the left eye image data and the right eye image data reproduced by the disc player 210: simultaneous and alternating. When the shooting timing is the same, the left-eye image data and the right-eye image data are obtained by, for example, shooting a left-eye image and a right-eye image at the same timing with a two-lens camera. Further, when the photographing timings are alternate, the left eye image data and the right eye image data are obtained, for example, by photographing a left eye image and a right eye image with a single camera at alternate timings.

また、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングとしては、同時および交互の2種類がある。例えば、テレビ受信機250の立体画像の表示方式がアナグリフ方式、偏光メガネ方式、裸眼方式等である場合、左眼画像および右眼画像は同時に表示される。また、例えば、テレビ受信機250の立体画像の表示方式がシャッターグラス方式である場合、左眼画像および右眼画像は交互に表示される。   In addition, there are two types of display timings of the left eye image and the right eye image displayed on the television receiver 250: simultaneous and alternating. For example, when the stereoscopic image display method of the television receiver 250 is an anaglyph method, a polarized glasses method, a naked eye method, or the like, the left eye image and the right eye image are displayed simultaneously. For example, when the stereoscopic image display method of the television receiver 250 is the shutter glass method, the left eye image and the right eye image are alternately displayed.

図1に示すAVシステム200において、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、タイミング補正が行われる。このタイミング補正では、左眼画像データおよび右眼画像データのタイミングが、左眼画像および右眼画像の表示タイミングに合うようにされる。このタイミング補正は、ディスクプレーヤ210、あるいはテレビ受信機250で行われる。   In the AV system 200 shown in FIG. 1, the shooting timing of the left eye image data and right eye image data reproduced by the disc player 210 is different from the display timing of the left eye image and right eye image displayed by the television receiver 250. In some cases, timing correction is performed. In this timing correction, the timing of the left eye image data and the right eye image data is matched with the display timing of the left eye image and the right eye image. This timing correction is performed by the disc player 210 or the television receiver 250.

ここで、撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。一つは、左眼画像データおよび右眼画像データが交互に撮影して得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。他の一つは、左眼画像データおよび右眼画像データが同じタイミングで撮影して得られたものであり、左眼画像および右眼画像が交互に表示される場合である。   Here, when the photographing timing and the display timing are different, there are the following two methods. One is a case where the left eye image data and the right eye image data are obtained by alternately photographing, and the left eye image and the right eye image are displayed at the same timing. The other one is obtained when the left eye image data and the right eye image data are obtained by photographing at the same timing, and the left eye image and the right eye image are alternately displayed.

[ディスクプレーヤの構成例]
図2は、ディスクプレーヤ210の構成例を示している。このディスクプレーヤ210は、HDMI端子211と、HDMI送信部212と、ドライブインタフェース213と、BD/DVDドライブ214を有している。また、このディスクプレーヤ210は、デマルチプレクサ215と、MPEGデコーダ216と、映像信号処理回路217と、オーディオデコーダ218と、音声信号処理回路219を有している。
[Configuration example of disc player]
FIG. 2 shows a configuration example of the disc player 210. The disc player 210 includes an HDMI terminal 211, an HDMI transmission unit 212, a drive interface 213, and a BD / DVD drive 214. The disc player 210 includes a demultiplexer 215, an MPEG decoder 216, a video signal processing circuit 217, an audio decoder 218, and an audio signal processing circuit 219.

また、このディスクプレーヤ210は、内部バス220と、CPU221と、フラッシュROM222と、DRAM223を有している。また、このディスクプレーヤ210は、イーサネットインタフェース(Ethernet I/F)224と、ネットワーク端子225と、リモコン受信部226と、リモコン送信機227を有している。なお、「イーサネット」および「Ethernet」は登録商標である。CPU221、フラッシュROM222、DRAM223、イーサネットインタフェース224およびドライブインタフェース213は、内部バス220に接続されている。   The disc player 210 has an internal bus 220, a CPU 221, a flash ROM 222, and a DRAM 223. Further, the disc player 210 includes an Ethernet interface (Ethernet I / F) 224, a network terminal 225, a remote control receiving unit 226, and a remote control transmitter 227. “Ethernet” and “Ethernet” are registered trademarks. The CPU 221, flash ROM 222, DRAM 223, Ethernet interface 224, and drive interface 213 are connected to the internal bus 220.

CPU221は、ディスクプレーヤ210の各部の動作を制御する。フラッシュROM222は、制御ソフトウェアの格納およびデータの保管を行う。DRAM223は、CPU221のワークエリアを構成する。CPU221は、フラッシュROM222から読み出したソフトウェアやデータをDRAM223上に展開してソフトウェアを起動させ、ディスクプレーヤ210の各部を制御する。リモコン受信部226は、リモコン送信機227から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU221に供給する。CPU221は、リモコンコードに従ってディスクプレーヤ210の各部を制御する。   The CPU 221 controls the operation of each unit of the disc player 210. The flash ROM 222 stores control software and data. The DRAM 223 constitutes a work area for the CPU 221. The CPU 221 develops software and data read from the flash ROM 222 on the DRAM 223 to activate the software, and controls each part of the disc player 210. The remote control receiving unit 226 receives a remote control signal (remote control code) transmitted from the remote control transmitter 227 and supplies it to the CPU 221. The CPU 221 controls each part of the disc player 210 according to the remote control code.

BD/DVDドライブ214は、ディスク状記録メディアとしてのBD,DVD(図示せず)に対して、コンテンツデータを記録し、あるいは、このBD,DVDからコンテンツデータを再生する。このBD/DVDドライブ214は、ドライブインタフェース213を介して内部バス220に接続されている。   The BD / DVD drive 214 records content data on a BD or DVD (not shown) as a disk-shaped recording medium, or reproduces content data from the BD or DVD. The BD / DVD drive 214 is connected to the internal bus 220 via the drive interface 213.

デマルチプレクサ215は、BD/DVDドライブ214の再生データから映像、音声等のエレメンタリストリームを分離する。MPEGデコーダ216は、デマルチプレクサ215で分離された映像のエレメンタリストリームに対してデコード処理を行って非圧縮の画像データを得る。   The demultiplexer 215 separates elementary streams such as video and audio from the reproduction data of the BD / DVD drive 214. The MPEG decoder 216 performs a decoding process on the video elementary stream separated by the demultiplexer 215 to obtain uncompressed image data.

映像信号処理回路217は、MPEGデコーダ216で得られた画像データに対して、必要に応じてスケーリング処理(解像度変換処理)、グラフィックスデータの重畳処理等を行って、HDMI送信部212に供給する。また、この映像信号処理回路217は、MPEGデコーダ216で得られた画像データが立体画像を表示するための立体画像データ(左眼画像データ、右眼画像データ)である場合、この立体画像データを伝送方式に応じた状態に加工処理する。   The video signal processing circuit 217 performs scaling processing (resolution conversion processing), graphics data superimposition processing, and the like on the image data obtained by the MPEG decoder 216 as necessary, and supplies the result to the HDMI transmission unit 212. . Further, when the image data obtained by the MPEG decoder 216 is stereoscopic image data (left-eye image data, right-eye image data) for displaying a stereoscopic image, the video signal processing circuit 217 converts the stereoscopic image data. Processing is performed according to the transmission method.

また、この映像信号処理回路217は、上述の左眼画像データおよび右眼画像データのタイミング補正をディスクプレーヤ210で行う場合、そのタイミング補正を行う。その場合、この映像信号処理回路217はタイミング補正部を構成する。この映像信号処理回路217におけるタイミング補正の詳細は後述する。   The video signal processing circuit 217 corrects the timing of the left eye image data and the right eye image data described above when the disc player 210 performs the timing correction. In this case, the video signal processing circuit 217 constitutes a timing correction unit. Details of timing correction in the video signal processing circuit 217 will be described later.

オーディオデコーダ218は、デマルチプレクサ215で分離された音声のエレメンタリストリームに対してデコード処理を行って非圧縮の音声データを得る。音声信号処理回路219は、オーディオデコーダ218で得られた音声データに対して、必要に応じて音質調整処理等を行って、HDMI送信部212に供給する。   The audio decoder 218 performs a decoding process on the audio elementary stream separated by the demultiplexer 215 to obtain uncompressed audio data. The audio signal processing circuit 219 performs sound quality adjustment processing or the like on the audio data obtained by the audio decoder 218 as necessary, and supplies the result to the HDMI transmission unit 212.

HDMI送信部212は、HDMIに準拠した通信により、ベースバンドの画像(映像)と音声のデータを、HDMI端子211から送出する。この場合、HDMIのTMDSチャネルで送信するため、画像および音声のデータがパッキングされて、HDMI送信部212からHDMI端子211に出力される。このHDMI送信部212の詳細は後述する。   The HDMI transmission unit 212 transmits baseband image (video) and audio data from the HDMI terminal 211 by communication conforming to HDMI. In this case, since transmission is performed using the HDMI TMDS channel, image and audio data are packed and output from the HDMI transmission unit 212 to the HDMI terminal 211. Details of the HDMI transmission unit 212 will be described later.

図2に示すディスクプレーヤ210の動作を簡単に説明する。BD/DVDドライブ214の再生データはデマルチプレクサ215に供給され、映像、音声等のエレメンタリストリームに分離される。デマルチプレクサ215で分離された映像のエレメンタリストリームはMPEGデコーダ216に供給されてデコードされ、非圧縮の画像データが得られる。また、デマルチプレクサ215で分離された音声のエレメンタリストリームはオーディオデコーダ218に供給されてデコードされ、非圧縮の音声データが得られる。   The operation of the disc player 210 shown in FIG. 2 will be briefly described. The reproduction data of the BD / DVD drive 214 is supplied to the demultiplexer 215 and separated into elementary streams such as video and audio. The elementary stream of video separated by the demultiplexer 215 is supplied to the MPEG decoder 216 and decoded to obtain uncompressed image data. Also, the audio elementary stream separated by the demultiplexer 215 is supplied to the audio decoder 218 and decoded to obtain uncompressed audio data.

MPEGデコーダ216で得られる画像データは、映像信号処理回路217を介してHDMI送信部212に供給される。また、オーディオデコーダ218で得られた音声データは音声信号処理回路219を介してHDMI送信部212に供給される。そして、これら画像および音声のデータは、HDMIのTMDSチャネルにより、HDMI端子211からHDMIケーブルに送出される。   Image data obtained by the MPEG decoder 216 is supplied to the HDMI transmission unit 212 via the video signal processing circuit 217. The audio data obtained by the audio decoder 218 is supplied to the HDMI transmission unit 212 via the audio signal processing circuit 219. These image and audio data are transmitted from the HDMI terminal 211 to the HDMI cable via the HDMI TMDS channel.

なお、MPEGデコーダ216で得られる画像データが立体画像データである場合、この立体画像データは、映像信号処理回路217で伝送方式に応じた状態に加工処理された後に、HDMI送信部212に供給される。また、画像データが立体画像データである場合には、必要に応じて、映像信号処理回路217により、この立体画像データを構成する左眼画像データおよび右眼画像データのタイミング補正が行われる。   When the image data obtained by the MPEG decoder 216 is stereoscopic image data, the stereoscopic image data is processed by the video signal processing circuit 217 into a state corresponding to the transmission method, and then supplied to the HDMI transmission unit 212. The If the image data is stereoscopic image data, the video signal processing circuit 217 corrects the timing of the left eye image data and the right eye image data constituting the stereoscopic image data as necessary.

[テレビ受信機の構成例]
図3は、テレビ受信機250の構成例を示している。このテレビ受信機250は、HDMI端子251と、HDMI受信部252と、3D信号処理部254を有している。また、テレビ受信機250は、アンテナ端子255と、デジタルチューナ256と、デマルチプレクサ257と、MPEGデコーダ258と、映像信号処理回路259と、グラフィック生成回路260と、パネル駆動回路261と、表示パネル262を有している。
[Configuration example of TV receiver]
FIG. 3 shows a configuration example of the television receiver 250. The television receiver 250 includes an HDMI terminal 251, an HDMI receiving unit 252, and a 3D signal processing unit 254. In addition, the television receiver 250 includes an antenna terminal 255, a digital tuner 256, a demultiplexer 257, an MPEG decoder 258, a video signal processing circuit 259, a graphic generation circuit 260, a panel drive circuit 261, and a display panel 262. have.

また、テレビ受信機250は、音声信号処理回路263と、音声増幅回路264と、スピーカ265と、内部バス270と、CPU271と、フラッシュROM272と、DRAM273を有している。また、テレビ受信機250は、イーサネットインタフェース(Ethernet I/F)274と、ネットワーク端子275と、リモコン受信部276と、リモコン送信機277と、DTCP回路278を有している。   The television receiver 250 includes an audio signal processing circuit 263, an audio amplification circuit 264, a speaker 265, an internal bus 270, a CPU 271, a flash ROM 272, and a DRAM 273. The television receiver 250 includes an Ethernet interface (Ethernet I / F) 274, a network terminal 275, a remote control receiving unit 276, a remote control transmitter 277, and a DTCP circuit 278.

アンテナ端子255は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ256は、アンテナ端子255に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のトランスポートストリームを出力する。デマルチプレクサ257は、デジタルチューナ256で得られたトランスポートストリームから、ユーザの選択チャネルに対応した、パーシャルTS(Transport Stream)(映像データのTSパケット、音声データのTSパケット)を抽出する。   The antenna terminal 255 is a terminal for inputting a television broadcast signal received by a receiving antenna (not shown). The digital tuner 256 processes the television broadcast signal input to the antenna terminal 255 and outputs a predetermined transport stream corresponding to the user's selected channel. The demultiplexer 257 extracts a partial TS (Transport Stream) (a TS packet of video data and a TS packet of audio data) corresponding to the user's selected channel from the transport stream obtained by the digital tuner 256.

また、デマルチプレクサ257は、デジタルチューナ256で得られたトランスポートストリームから、PSI/SI(Program Specific Information/Service Information)を取り出し、CPU271に出力する。デジタルチューナ256で得られたトランスポートストリームには、複数のチャネルが多重化されている。デマルチプレクサ257で、当該トランスポートストリームから任意のチャネルのパーシャルTSを抽出する処理は、PSI/SI(PAT/PMT)から当該任意のチャネルのパケットID(PID)の情報を得ることで可能となる。   Further, the demultiplexer 257 extracts PSI / SI (Program Specific Information / Service Information) from the transport stream obtained by the digital tuner 256 and outputs it to the CPU 271. A plurality of channels are multiplexed in the transport stream obtained by the digital tuner 256. The process of extracting the partial TS of an arbitrary channel from the transport stream by the demultiplexer 257 can be performed by obtaining the packet ID (PID) information of the arbitrary channel from the PSI / SI (PAT / PMT). .

MPEGデコーダ258は、デマルチプレクサ257で得られる映像データのTSパケットにより構成される映像PES(Packetized Elementary Stream)パケットに対してデコード処理を行って画像データを得る。また、MPEGデコーダ258は、デマルチプレクサ257で得られる音声データのTSパケットにより構成される音声PESパケットに対してデコード処理を行って音声データを得る。   The MPEG decoder 258 obtains image data by performing decoding processing on a video PES (Packetized Elementary Stream) packet constituted by a TS packet of video data obtained by the demultiplexer 257. Also, the MPEG decoder 258 performs a decoding process on the audio PES packet configured by the TS packet of the audio data obtained by the demultiplexer 257 to obtain audio data.

映像信号処理回路259およびグラフィック生成回路260は、MPEGデコーダ258で得られた画像データ、あるいはHDMI受信部252で受信された画像データに対して、必要に応じてスケーリング処理(解像度変換処理)、グラフィックスデータの重畳処理等を行う。また、映像信号処理回路259は、HDMI受信部252で受信された画像データが、左眼画像データおよび右眼画像データを含む立体画像データである場合には、左眼画像データおよび右眼画像データに対して、立体画像を表示するために必要な処理を行う。パネル駆動回路261は、グラフィック生成回路260から出力される映像(画像)データに基づいて、表示パネル262を駆動する。   The video signal processing circuit 259 and the graphic generation circuit 260 perform scaling processing (resolution conversion processing) and graphic processing on the image data obtained by the MPEG decoder 258 or the image data received by the HDMI receiving unit 252 as necessary. Data superimposition processing is performed. Also, the video signal processing circuit 259, when the image data received by the HDMI receiving unit 252 is stereoscopic image data including left eye image data and right eye image data, the left eye image data and right eye image data. On the other hand, processing necessary for displaying a stereoscopic image is performed. The panel drive circuit 261 drives the display panel 262 based on the video (image) data output from the graphic generation circuit 260.

表示パネル262は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)等で構成されている。音声信号処理回路263はMPEGデコーダ258で得られた音声データに対してD/A変換等の必要な処理を行う。音声増幅回路264は、音声信号処理回路263から出力される音声信号を増幅してスピーカ265に供給する。   The display panel 262 includes, for example, an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), or the like. The audio signal processing circuit 263 performs necessary processing such as D / A conversion on the audio data obtained by the MPEG decoder 258. The audio amplifier circuit 264 amplifies the audio signal output from the audio signal processing circuit 263 and supplies the amplified audio signal to the speaker 265.

CPU271は、テレビ受信機250の各部の動作を制御する。フラッシュROM272は、制御ソフトウェアの格納およびデータの保管を行う。DRAM273は、CPU271のワークエリアを構成する。CPU271は、フラッシュROM272から読み出したソフトウェアやデータをDRAM273上に展開してソフトウェアを起動させ、テレビ受信機250の各部を制御する。   The CPU 271 controls the operation of each unit of the television receiver 250. The flash ROM 272 stores control software and data. The DRAM 273 constitutes a work area for the CPU 271. The CPU 271 develops software and data read from the flash ROM 272 on the DRAM 273 to activate the software, and controls each unit of the television receiver 250.

リモコン受信部276は、リモコン送信機277から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU271に供給する。CPU271は、このリモコンコードに基づいて、テレビ受信機250の各部を制御する。ネットワーク端子275は、ネットワークに接続する端子であり、イーサネットインタフェース274に接続される。CPU271、フラッシュROM272、DRAM273およびイーサネットインタフェース274は、内部バス270に接続されている。DTCP回路278は、ネットワーク端子275からイーサネットインタフェース274に供給される暗号化データを復号する。   The remote control receiving unit 276 receives the remote control signal (remote control code) transmitted from the remote control transmitter 277 and supplies it to the CPU 271. The CPU 271 controls each unit of the television receiver 250 based on the remote control code. The network terminal 275 is a terminal connected to the network, and is connected to the Ethernet interface 274. The CPU 271, flash ROM 272, DRAM 273, and Ethernet interface 274 are connected to the internal bus 270. The DTCP circuit 278 decrypts the encrypted data supplied from the network terminal 275 to the Ethernet interface 274.

HDMI受信部(HDMIシンク)252は、HDMIに準拠した通信により、HDMIケーブル350を介してHDMI端子251に供給される非圧縮の画像(映像)と音声のデータを受信する。このHDMI受信部252の詳細は後述する。   The HDMI receiving unit (HDMI sink) 252 receives uncompressed image (video) and audio data supplied to the HDMI terminal 251 via the HDMI cable 350 by communication conforming to HDMI. Details of the HDMI receiving unit 252 will be described later.

3D信号処理部254は、HDMI受信部252で受信された3D画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。すなわち、この3D信号処理部254は、上述したディスクプレーヤ210の映像信号処理回路217(図2参照)とは逆の処理を行って、立体画像データを構成する左眼画像データおよび右眼画像データを取得する。   The 3D signal processing unit 254 performs processing (decoding processing) corresponding to the transmission method on the 3D image data received by the HDMI receiving unit 252 to generate left eye image data and right eye image data. That is, the 3D signal processing unit 254 performs processing opposite to that of the video signal processing circuit 217 (see FIG. 2) of the disc player 210 described above, so that the left eye image data and right eye image data constituting the stereoscopic image data are processed. To get.

また、この3D信号処理部254は、上述の左眼画像データおよび右眼画像データのタイミング補正をテレビ受信機250で行う場合、そのタイミング補正を行う。その場合、この3D信号処理部254はタイミング補正部を構成する。この3D信号処理部254におけるタイミング補正の詳細は後述する。   In addition, when the television receiver 250 performs the timing correction of the left eye image data and the right eye image data described above, the 3D signal processing unit 254 performs the timing correction. In that case, the 3D signal processing unit 254 constitutes a timing correction unit. Details of timing correction in the 3D signal processing unit 254 will be described later.

図3に示すテレビ受信機250の動作を簡単に説明する。アンテナ端子255に入力されたテレビ放送信号はデジタルチューナ256に供給される。このデジタルチューナ256では、テレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のトランスポートストリームが出力され、当該所定のトランスポートストリームはデマルチプレクサ257に供給される。このデマルチプレクサ257では、トランスポートストリームから、ユーザの選択チャネルに対応した、パーシャルTS(映像データのTSパケット、音声データのTSパケット)が抽出され、当該パーシャルTSはMPEGデコーダ258に供給される。   The operation of the television receiver 250 shown in FIG. 3 will be briefly described. The television broadcast signal input to the antenna terminal 255 is supplied to the digital tuner 256. The digital tuner 256 processes the television broadcast signal, outputs a predetermined transport stream corresponding to the user's selected channel, and supplies the predetermined transport stream to the demultiplexer 257. The demultiplexer 257 extracts a partial TS (video data TS packet, audio data TS packet) corresponding to the user's selected channel from the transport stream, and supplies the partial TS to the MPEG decoder 258.

MPEGデコーダ258では、映像データのTSパケットにより構成される映像PESパケットに対してデコード処理が行われて画像データが得られる。この画像データは、映像信号処理回路259およびグラフィック生成回路260において、必要に応じて、スケーリング処理(解像度変換処理)、グラフィックスデータの重畳処理等が行われた後に、パネル駆動回路261に供給される。そのため、表示パネル262には、ユーザの選択チャネルに対応した画像が表示される。   In the MPEG decoder 258, image data is obtained by performing a decoding process on a video PES packet constituted by a TS packet of video data. The image data is supplied to the panel drive circuit 261 after scaling processing (resolution conversion processing), graphics data superimposition processing, and the like are performed as necessary in the video signal processing circuit 259 and the graphic generation circuit 260. The Therefore, the display panel 262 displays an image corresponding to the user's selected channel.

また、MPEGデコーダ258では、音声データのTSパケットにより構成される音声PESパケットに対してデコード処理が行われて音声データが得られる。この音声データは、音声信号処理回路263でD/A変換等の必要な処理が行われ、さらに、音声増幅回路264で増幅された後に、スピーカ265に供給される。そのため、スピーカ265から、ユーザの選択チャネルに対応した音声が出力される。   Also, in the MPEG decoder 258, audio data is obtained by performing a decoding process on the audio PES packet configured by the TS packet of audio data. The audio data is subjected to necessary processing such as D / A conversion by the audio signal processing circuit 263, further amplified by the audio amplification circuit 264, and then supplied to the speaker 265. Therefore, sound corresponding to the user's selected channel is output from the speaker 265.

また、ネットワーク端子275からイーサネットインタフェース274に供給される暗号化されているコンテンツデータ(画像データ、音声データ)は、DTCP回路278で復号化された後に、MPEGデコーダ258に供給される。以降は、上述したテレビ放送信号の受信時と同様の動作となり、表示パネル262に画像が表示され、スピーカ265から音声が出力される。   The encrypted content data (image data and audio data) supplied from the network terminal 275 to the Ethernet interface 274 is decrypted by the DTCP circuit 278 and then supplied to the MPEG decoder 258. Thereafter, the operation is the same as when the above-described television broadcast signal is received, an image is displayed on the display panel 262, and sound is output from the speaker 265.

また、HDMI受信部252では、HDMI端子251にHDMIケーブル350を介して接続されているディスクプレーヤ210から送信されてくる、画像データおよび音声データが取得される。画像データは、3D信号処理部254を介して映像信号処理回路259に供給される。また、音声データは、直接、音声信号処理回路263に供給される。以降は、上述したテレビ放送信号の受信時と同様の動作となり、表示パネル262に画像が表示され、スピーカ265から音声が出力される。   Also, the HDMI receiving unit 252 acquires image data and audio data transmitted from the disc player 210 connected to the HDMI terminal 251 via the HDMI cable 350. The image data is supplied to the video signal processing circuit 259 via the 3D signal processing unit 254. The audio data is directly supplied to the audio signal processing circuit 263. Thereafter, the operation is the same as when the above-described television broadcast signal is received, an image is displayed on the display panel 262, and sound is output from the speaker 265.

なお、HDMI受信部252で受信された画像データが立体画像データである場合には、3D信号処理部254において、当該3D画像データに対して伝送方式に対応した処理(デコード処理)が行われ、左眼画像データおよび右眼画像データが生成される。そして、3D信号処理部254から映像信号処理部259には、左眼画像データおよび右眼画像データが供給される。また、画像データが立体画像データである場合には、必要に応じて、3D信号処理部254により、この立体画像データを構成する左眼画像データおよび右眼画像データのタイミング補正が行われる。   When the image data received by the HDMI receiving unit 252 is stereoscopic image data, the 3D signal processing unit 254 performs processing (decoding processing) corresponding to the transmission method on the 3D image data. Left eye image data and right eye image data are generated. Then, the left eye image data and the right eye image data are supplied from the 3D signal processing unit 254 to the video signal processing unit 259. When the image data is stereoscopic image data, the 3D signal processing unit 254 corrects the timing of the left eye image data and right eye image data constituting the stereoscopic image data as necessary.

また、映像信号処理回路259では、立体画像データを構成する左眼画像データおよび右眼画像データが供給される場合には、左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データが生成される。そのため、表示パネル262により立体画像が表示される。   The video signal processing circuit 259 displays a stereoscopic image based on the left-eye image data and the right-eye image data when the left-eye image data and the right-eye image data constituting the stereoscopic image data are supplied. Image data is generated. Therefore, a stereoscopic image is displayed on the display panel 262.

[HDMI送信部、HDMI受信部の構成例]
図4は、図1のAVシステム200における、ディスクプレーヤ210のHDMI送信部(HDMIソース)212と、テレビ受信機250のHDMI受信部(HDMIシンク)252の構成例を示している。
[Configuration Example of HDMI Transmitter and HDMI Receiver]
FIG. 4 shows a configuration example of the HDMI transmitting unit (HDMI source) 212 of the disc player 210 and the HDMI receiving unit (HDMI sink) 252 of the television receiver 250 in the AV system 200 of FIG.

HDMI送信部212は、有効画像区間(以下、適宜、アクティブビデオ区間ともいう)において、非圧縮の1画面分の画像の画素データに対応する差動信号を、複数のチャネルで、HDMI受信部252に一方向に送信する。ここで、有効画像区間は、一の垂直同期信号から次の垂直同期信号までの区間から、水平帰線区間及び垂直帰線区間を除いた区間である。また、HDMI送信部212は、水平帰線区間または垂直帰線区間において、少なくとも画像に付随する音声データや制御データ、その他の補助データ等に対応する差動信号を、複数のチャネルで、HDMI受信部252に一方向に送信する。   The HDMI transmission unit 212 transmits, in a plurality of channels, a differential signal corresponding to pixel data of an uncompressed image for one screen in an effective image section (hereinafter also referred to as an active video section as appropriate) using a plurality of channels. Send in one direction. Here, the effective image section is a section obtained by removing the horizontal blanking section and the vertical blanking section from the section from one vertical synchronization signal to the next vertical synchronization signal. In addition, the HDMI transmission unit 212 receives, at a plurality of channels, a differential signal corresponding to at least audio data, control data, and other auxiliary data associated with an image in a horizontal blanking interval or a vertical blanking interval. Transmit to the unit 252 in one direction.

HDMI送信部212とHDMI受信部252とからなるHDMIシステムの伝送チャネルには、以下の伝送チャネルがある。すなわち、HDMI送信部212からHDMI受信部252に対して、画素データおよび音声データを、ピクセルクロックに同期して、一方向にシリアル伝送するための伝送チャネルとしての、3つのTMDSチャネル#0乃至#2がある。また、ピクセルクロックを伝送する伝送チャネルとしての、TMDSクロックチャネルがある。   The transmission channels of the HDMI system including the HDMI transmission unit 212 and the HDMI reception unit 252 include the following transmission channels. That is, three TMDS channels # 0 to ## as transmission channels for serially transmitting pixel data and audio data in one direction in synchronization with the pixel clock from the HDMI transmission unit 212 to the HDMI reception unit 252. There are two. There is also a TMDS clock channel as a transmission channel for transmitting a pixel clock.

HDMI送信部212は、HDMIトランスミッタ81を有する。トランスミッタ81は、例えば、非圧縮の画像の画素データを対応する差動信号に変換し、複数のチャネルである3つのTMDSチャネル#0,#1,#2で、HDMIケーブル350を介して接続されているHDMI受信部252に、一方向にシリアル伝送する。   The HDMI transmission unit 212 includes an HDMI transmitter 81. The transmitter 81 converts, for example, pixel data of an uncompressed image into a corresponding differential signal, and is connected via the HDMI cable 350 with three TMDS channels # 0, # 1, and # 2 that are a plurality of channels. Serial transmission in one direction to the HDMI receiving unit 252.

また、トランスミッタ81は、非圧縮の画像に付随する音声データ、さらには、必要な制御データその他の補助データ等を、対応する差動信号に変換し、3つのTMDSチャネル#0,#1,#2でHDMI受信部252に、一方向にシリアル伝送する。   The transmitter 81 converts audio data accompanying uncompressed images, further necessary control data and other auxiliary data, etc. into corresponding differential signals, and converts them into three TMDS channels # 0, # 1, #. 2 serially transmits to the HDMI receiving unit 252 in one direction.

さらに、トランスミッタ81は、3つのTMDSチャネル#0,#1,#2で送信する画素データに同期したピクセルクロックを、TMDSクロックチャネルで、HDMIケーブル350を介して接続されているHDMI受信部252に送信する。ここで、1つのTMDSチャネル#i(i=0,1,2)では、ピクセルクロックの1クロックの間に、10ビットの画素データが送信される。   Further, the transmitter 81 transmits the pixel clock synchronized with the pixel data transmitted through the three TMDS channels # 0, # 1, and # 2 to the HDMI receiving unit 252 connected via the HDMI cable 350 using the TMDS clock channel. Send. Here, in one TMDS channel #i (i = 0, 1, 2), 10-bit pixel data is transmitted during one pixel clock.

HDMI受信部252は、アクティブビデオ区間において、複数のチャネルで、HDMI送信部212から一方向に送信されてくる、画素データに対応する差動信号を受信する。また、このHDMI受信部252は、水平帰線区間または垂直帰線区間において、複数のチャネルで、HDMI送信部212から一方向に送信されてくる、音声データや制御データに対応する差動信号を受信する。   The HDMI receiving unit 252 receives a differential signal corresponding to the pixel data transmitted from the HDMI transmitting unit 212 in one direction through a plurality of channels in the active video section. Further, the HDMI receiving unit 252 transmits differential signals corresponding to audio data and control data transmitted in one direction from the HDMI transmitting unit 212 through a plurality of channels in a horizontal blanking interval or a vertical blanking interval. Receive.

すなわち、HDMI受信部252は、HDMIレシーバ82を有する。このHDMIレシーバ82は、TMDSチャネル#0,#1,#2で、HDMI送信部212から一方向に送信されてくる、画素データに対応する差動信号と、音声データや制御データに対応する差動信号を受信する。この場合、HDMI送信部212からTMDSクロックチャネルで送信されてくるピクセルクロックに同期して受信する。   That is, the HDMI receiving unit 252 includes an HDMI receiver 82. This HDMI receiver 82 uses TMDS channels # 0, # 1, and # 2 to transmit a differential signal corresponding to pixel data and a difference corresponding to audio data and control data transmitted in one direction from the HDMI transmission unit 212. Receive a motion signal. In this case, reception is performed in synchronization with the pixel clock transmitted from the HDMI transmission unit 212 via the TMDS clock channel.

HDMI送信部212とHDMI受信部252とからなるHDMIシステムの伝送チャネルには、上述のTMDSチャネル#0乃至#2およびTMDSクロックチャネルの他に、DDC(Display Data Channel)83やCECライン84と呼ばれる伝送チャネルがある。DDC83は、HDMIケーブル350に含まれる図示しない2本の信号線からなり、HDMI送信部212が、HDMIケーブル350を介して接続されたHDMI受信部252から、E−EDID(Enhanced Extended Display Identification Data)を読み出すために使用される。   In addition to the TMDS channels # 0 to # 2 and the TMDS clock channel described above, the transmission channel of the HDMI system including the HDMI transmission unit 212 and the HDMI reception unit 252 is called a DDC (Display Data Channel) 83 or a CEC line 84. There is a transmission channel. The DDC 83 includes two signal lines (not shown) included in the HDMI cable 350, and the HDMI transmission unit 212 is connected to the HDMI reception unit 252 connected via the HDMI cable 350 from the E-EDID (Enhanced Extended Display Identification Data). Used to read

すなわち、HDMI受信部252は、HDMIレシーバ81の他に、自身の性能(Configuration/capability)に関する性能情報であるE−EDIDを記憶している、EDID ROM(Read Only Memory)85を有している。HDMI送信部212は、例えば、CPU221(図2参照)からの要求に応じて、HDMIケーブル350を介して接続されているHDMI受信部252から、当該HDMI受信部252のE−EDIDを、DDC83を介して読み出す。HDMI送信部212は、読み出したE−EDIDをCPU221に送る。CPU221は、このE−EDIDを、フラッシュROM222あるいはDRAM223に格納する。   That is, the HDMI receiving unit 252 has an EDID ROM (Read Only Memory) 85 that stores E-EDID, which is performance information related to its own performance (configuration / capability), in addition to the HDMI receiver 81. . For example, in response to a request from the CPU 221 (see FIG. 2), the HDMI transmission unit 212 transmits the E-EDID of the HDMI reception unit 252 from the HDMI reception unit 252 connected via the HDMI cable 350 to the DDC 83. Read through. The HDMI transmission unit 212 sends the read E-EDID to the CPU 221. The CPU 221 stores this E-EDID in the flash ROM 222 or the DRAM 223.

CPU221は、E−EDIDに基づき、HDMI受信部252の性能の設定を認識できる。例えば、CPU221は、HDMI受信部252を有するテレビ受信機250が対応可能な画像データのフォーマット(解像度、フレームレート、アスペクト等)を認識する。また、この実施の形態において、ディスクプレーヤ210で左眼画像データおよび右眼画像データのタイミングを補正する場合、CPU221は、E−EDIDに含まれる後述する表示タイミング情報に基づき、HDMI受信部252を有するテレビ受信機250における左眼画像および右眼画像の表示タイミングを認識する。   The CPU 221 can recognize the performance setting of the HDMI receiving unit 252 based on the E-EDID. For example, the CPU 221 recognizes the format (resolution, frame rate, aspect, etc.) of image data that can be supported by the television receiver 250 having the HDMI receiving unit 252. In this embodiment, when the disc player 210 corrects the timing of the left eye image data and the right eye image data, the CPU 221 sets the HDMI receiving unit 252 based on display timing information described later included in the E-EDID. The display timing of the left eye image and the right eye image in the television receiver 250 is recognized.

CECライン84は、HDMIケーブル350に含まれる図示しない1本の信号線からなり、HDMI送信部212とHDMI受信部252との間で、制御用のデータの双方向通信を行うために用いられる。このCECライン84は、制御データラインを構成している。   The CEC line 84 includes one signal line (not shown) included in the HDMI cable 350 and is used for bidirectional communication of control data between the HDMI transmission unit 212 and the HDMI reception unit 252. The CEC line 84 constitutes a control data line.

また、HDMIケーブル350には、HPD(Hot Plug Detect)と呼ばれるピンに接続されるライン(HPDライン)86が含まれている。ソース機器は、当該ライン86を利用して、シンク機器の接続を検出することができる。また、HDMIケーブル350には、ソース機器からシンク機器に電源を供給するために用いられるライン87が含まれている。さらに、HDMIケーブル350には、リザーブライン88が含まれている。   The HDMI cable 350 includes a line (HPD line) 86 connected to a pin called HPD (Hot Plug Detect). The source device can detect the connection of the sink device using the line 86. Also, the HDMI cable 350 includes a line 87 used for supplying power from the source device to the sink device. Further, the HDMI cable 350 includes a reserved line 88.

図5は、図4のHDMIトランスミッタ81とHDMIレシーバ82の構成例を示している。HDMIトランスミッタ81は、3つのTMDSチャネル#0,#1,#2にそれぞれ対応する3つのエンコーダ/シリアライザ81A,81B,81Cを有する。そして、エンコーダ/シリアライザ81A,81B,81Cのそれぞれは、そこに供給される画像データ、補助データ、制御データをエンコードし、パラレルデータからシリアルデータに変換して、差動信号により送信する。ここで、画像データが、例えばR,G,Bの3成分を有する場合、B成分はエンコーダ/シリアライザ81Aに供給され、G成分はエンコーダ/シリアライザ81Bに供給され、R成分はエンコーダ/シリアライザ81Cに供給される。   FIG. 5 shows a configuration example of the HDMI transmitter 81 and the HDMI receiver 82 of FIG. The HDMI transmitter 81 has three encoder / serializers 81A, 81B, and 81C corresponding to the three TMDS channels # 0, # 1, and # 2, respectively. Each of the encoders / serializers 81A, 81B, 81C encodes the image data, auxiliary data, and control data supplied thereto, converts the parallel data into serial data, and transmits the data by a differential signal. Here, when the image data has, for example, three components R, G, and B, the B component is supplied to the encoder / serializer 81A, the G component is supplied to the encoder / serializer 81B, and the R component is supplied to the encoder / serializer 81C. Supplied.

また、補助データとしては、例えば、音声データや制御パケットがあり、制御パケットは、例えば、エンコーダ/シリアライザ81Aに供給され、音声データは、エンコーダ/シリアライザ81B,81Cに供給される。さらに、制御データとしては、1ビットの垂直同期信号(VSYNC)、1ビットの水平同期信号(HSYNC)、および、それぞれ1ビットの制御ビットCTL0,CTL1,CTL2,CTL3がある。垂直同期信号および水平同期信号は、エンコーダ/シリアライザ81Aに供給される。制御ビットCTL0,CTL1はエンコーダ/シリアライザ81Bに供給され、制御ビットCTL2,CTL3はエンコーダ/シリアライザ81Cに供給される。   The auxiliary data includes, for example, audio data and control packets. The control packets are supplied to, for example, the encoder / serializer 81A, and the audio data is supplied to the encoder / serializers 81B and 81C. Further, the control data includes a 1-bit vertical synchronization signal (VSYNC), a 1-bit horizontal synchronization signal (HSYNC), and 1-bit control bits CTL0, CTL1, CTL2, and CTL3. The vertical synchronization signal and the horizontal synchronization signal are supplied to the encoder / serializer 81A. The control bits CTL0 and CTL1 are supplied to the encoder / serializer 81B, and the control bits CTL2 and CTL3 are supplied to the encoder / serializer 81C.

エンコーダ/シリアライザ81Aは、そこに供給される画像データのB成分、垂直同期信号および水平同期信号、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Aは、そこに供給される画像データのB成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Aは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。   The encoder / serializer 81A transmits the B component of the image data, the vertical synchronization signal and the horizontal synchronization signal, and auxiliary data supplied thereto in a time division manner. That is, the encoder / serializer 81A converts the B component of the image data supplied thereto into 8-bit parallel data that is a fixed number of bits. Further, the encoder / serializer 81A encodes the parallel data, converts it into serial data, and transmits it through the TMDS channel # 0.

また、エンコーダ/シリアライザ81Aは、そこに供給される垂直同期信号および水平同期信号の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。さらに、エンコーダ/シリアライザ81Aは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Aは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。   The encoder / serializer 81A encodes the 2-bit parallel data of the vertical synchronization signal and horizontal synchronization signal supplied thereto, converts the data into serial data, and transmits the serial data through the TMDS channel # 0. Furthermore, the encoder / serializer 81A converts the auxiliary data supplied thereto into parallel data in units of 4 bits. Then, the encoder / serializer 81A encodes the parallel data, converts it into serial data, and transmits it through the TMDS channel # 0.

エンコーダ/シリアライザ81Bは、そこに供給される画像データのG成分、制御ビットCTL0,CTL1、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Bは、そこに供給される画像データのG成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Bは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。   The encoder / serializer 81B transmits the G component of the image data, control bits CTL0 and CTL1, and auxiliary data supplied thereto in a time division manner. That is, the encoder / serializer 81B sets the G component of the image data supplied thereto as parallel data in units of 8 bits, which is a fixed number of bits. Further, the encoder / serializer 81B encodes the parallel data, converts it into serial data, and transmits it through the TMDS channel # 1.

また、エンコーダ/シリアライザ81Bは、そこに供給される制御ビットCTL0,CTL1の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。さらに、エンコーダ/シリアライザ81Bは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Bは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。   The encoder / serializer 81B encodes the 2-bit parallel data of the control bits CTL0 and CTL1 supplied thereto, converts the data into serial data, and transmits the serial data through the TMDS channel # 1. Furthermore, the encoder / serializer 81B converts the auxiliary data supplied thereto into parallel data in units of 4 bits. Then, the encoder / serializer 81B encodes the parallel data, converts it into serial data, and transmits it through the TMDS channel # 1.

エンコーダ/シリアライザ81Cは、そこに供給される画像データのR成分、制御ビットCTL2,CTL3、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Cは、そこに供給される画像データのR成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Cは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。   The encoder / serializer 81C transmits the R component of the image data, control bits CTL2 and CTL3, and auxiliary data supplied thereto in a time division manner. That is, the encoder / serializer 81C sets the R component of the image data supplied thereto as parallel data in units of 8 bits, which is a fixed number of bits. Further, the encoder / serializer 81C encodes the parallel data, converts it into serial data, and transmits it through the TMDS channel # 2.

また、エンコーダ/シリアライザ81Cは、そこに供給される制御ビットCTL2,CTL3の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。さらに、エンコーダ/シリアライザ81Cは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Cは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。   The encoder / serializer 81C encodes 2-bit parallel data of the control bits CTL2 and CTL3 supplied thereto, converts the data into serial data, and transmits the serial data through the TMDS channel # 2. Furthermore, the encoder / serializer 81C converts the auxiliary data supplied thereto into parallel data in units of 4 bits. Then, the encoder / serializer 81C encodes the parallel data, converts it into serial data, and transmits it through the TMDS channel # 2.

HDMIレシーバ82は、3つのTMDSチャネル#0,#1,#2にそれぞれ対応する3つのリカバリ/デコーダ82A,82B,82Cを有する。そして、リカバリ/デコーダ82A,82B,82Cのそれぞれは、TMDSチャネル#0,#1,#2で差動信号により送信されてくる画像データ、補助データ、制御データを受信する。さらに、リカバリ/デコーダ82A,82B,82Cのそれぞれは、画像データ、補助データ、制御データを、シリアルデータからパラレルデータに変換し、さらにデコードして出力する。   The HDMI receiver 82 has three recovery / decoders 82A, 82B, and 82C corresponding to the three TMDS channels # 0, # 1, and # 2, respectively. Then, each of the recovery / decoders 82A, 82B, and 82C receives image data, auxiliary data, and control data transmitted as differential signals through the TMDS channels # 0, # 1, and # 2. Further, each of the recovery / decoders 82A, 82B, and 82C converts the image data, auxiliary data, and control data from serial data to parallel data, and further decodes and outputs them.

すなわち、リカバリ/デコーダ82Aは、TMDSチャネル#0で差動信号により送信されてくる画像データのB成分、垂直同期信号および水平同期信号、補助データを受信する。そして、リカバリ/デコーダ82Aは、その画像データのB成分、垂直同期信号および水平同期信号、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。   That is, the recovery / decoder 82A receives the B component of the image data, the vertical synchronization signal, the horizontal synchronization signal, and the auxiliary data that are transmitted as differential signals through the TMDS channel # 0. Then, the recovery / decoder 82A converts the B component of the image data, the vertical synchronization signal, the horizontal synchronization signal, and the auxiliary data from serial data to parallel data, and decodes and outputs them.

リカバリ/デコーダ82Bは、TMDSチャネル#1で差動信号により送信されてくる画像データのG成分、制御ビットCTL0,CTL1、補助データを受信する。そして、リカバリ/デコーダ82Bは、その画像データのG成分、制御ビットCTL0,CTL1、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。   The recovery / decoder 82B receives the G component of the image data, the control bits CTL0 and CTL1, and the auxiliary data transmitted by the differential signal through the TMDS channel # 1. Then, the recovery / decoder 82B converts the G component of the image data, the control bits CTL0 and CTL1, and the auxiliary data from serial data to parallel data, and decodes and outputs them.

リカバリ/デコーダ82Cは、TMDSチャネル#2で差動信号により送信されてくる画像データのR成分、制御ビットCTL2,CTL3、補助データを受信する。そして、リカバリ/デコーダ82Cは、その画像データのR成分、制御ビットCTL2,CTL3、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。   The recovery / decoder 82C receives the R component of the image data, the control bits CTL2 and CTL3, and the auxiliary data transmitted by the differential signal through the TMDS channel # 2. Then, the recovery / decoder 82C converts the R component of the image data, the control bits CTL2 and CTL3, and the auxiliary data from serial data to parallel data, and decodes and outputs them.

図6は、TMDS伝送データの構造例を示している。この図6は、TMDSチャネル#0,#1,#2において、横×縦が1920ピクセル×1080ラインの画像データが伝送される場合の、各種の伝送データの区間を示している。   FIG. 6 shows an example of the structure of TMDS transmission data. FIG. 6 shows sections of various transmission data when image data of horizontal × vertical 1920 pixels × 1080 lines is transmitted on the TMDS channels # 0, # 1, and # 2.

HDMIの3つのTMDSチャネル#0,#1,#2で伝送データが伝送されるビデオフィールド(Video Field)には、伝送データの種類に応じて、3種類の区間が存在する。この3種類の区間は、ビデオデータ区間(Video Data period)、データアイランド区間(Data Island period)、およびコントロール区間(Control period)である。   A video field (Video Field) in which transmission data is transmitted through the three TMDS channels # 0, # 1, and # 2 of HDMI has three types of sections according to the type of transmission data. These three types of sections are a video data period, a data island period, and a control period.

ここで、ビデオフィールド区間は、ある垂直同期信号の立ち上がりエッジ(active edge)から次の垂直同期信号の立ち上がりエッジまでの区間である。このビデオフィールド区間は、水平ブランキング期間(horizontal blanking)、垂直ブランキング期間(vertical blanking)、並びに、アクティブビデオ区間(Active Video)に分けられる。このアクティブビデオ区間は、ビデオフィールド区間から、水平ブランキング期間および垂直ブランキング期間を除いた区間である   Here, the video field period is a period from the rising edge (active edge) of a certain vertical synchronizing signal to the rising edge of the next vertical synchronizing signal. The video field period is divided into a horizontal blanking period (horizontal blanking), a vertical blanking period (vertical blanking), and an active video period (Active Video). This active video section is a section obtained by removing the horizontal blanking period and the vertical blanking period from the video field section.

ビデオデータ区間は、アクティブビデオ区間に割り当てられる。このビデオデータ区間では、非圧縮の1画面分の画像データを構成する1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)のデータが伝送される。   The video data section is assigned to the active video section. In this video data section, 1920 pixel (pixel) × 1080 line effective pixel (Active pixel) data constituting uncompressed image data for one screen is transmitted.

データアイランド区間およびコントロール区間は、水平ブランキング期間および垂直ブランキング期間に割り当てられる。このデータアイランド区間およびコントロール区間では、補助データ(Auxiliary data)が伝送される。すなわち、データアイランド区間は、水平ブランキング期間と垂直ブランキング期間の一部分に割り当てられている。このデータアイランド区間では、補助データのうち、制御に関係しないデータである、例えば、音声データのパケット等が伝送される。   The data island period and the control period are assigned to the horizontal blanking period and the vertical blanking period. In the data island section and the control section, auxiliary data (Auxiliary data) is transmitted. That is, the data island period is assigned to a part of the horizontal blanking period and the vertical blanking period. In this data island period, for example, audio data packets, which are data not related to control, of auxiliary data are transmitted.

コントロール区間は、水平ブランキング期間と垂直ブランキング期間の他の部分に割り当てられている。このコントロール区間では、補助データのうちの、制御に関係するデータである、例えば、垂直同期信号および水平同期信号、制御パケット等が伝送される。   The control period is allocated to other parts of the horizontal blanking period and the vertical blanking period. In this control period, for example, vertical synchronization signals, horizontal synchronization signals, control packets, and the like, which are data related to control, of auxiliary data are transmitted.

図7は、HDMI端子211,251のピン配列の一例を示している。図7に示すピン配列はタイプA(type-A)と呼ばれている。   FIG. 7 shows an example of the pin arrangement of the HDMI terminals 211 and 251. The pin arrangement shown in FIG. 7 is called type A (type-A).

TMDSチャネル#iの差動信号であるTMDS Data#i+とTMDS Data#i−が伝送される差動線である2本のラインは、TMDS Data#i+が割り当てられているピン(ピン番号が1,4,7のピン)と、TMDS Data#i−が割り当てられているピン(ピン番号が3,6,9のピン)に接続される。   Two lines, which are differential lines through which TMDS Data # i + and TMDS Data # i−, which are differential signals of TMDS channel #i, are transmitted are pins to which TMDS Data # i + is assigned (the pin number is 1). , 4, 7) and pins assigned with TMDS Data # i− (pin numbers 3, 6, 9).

また、制御用のデータであるCEC信号が伝送されるCECライン84は、ピン番号が13であるピンに接続され、ピン番号が14のピンは空き(Reserved)ピンとなっている。また、E−EDID等のSDA(Serial Data)信号が伝送されるラインは、ピン番号が16であるピンに接続され、SDA信号の送受信時の同期に用いられるクロック信号であるSCL(Serial Clock)信号が伝送されるラインは、ピン番号が15であるピンに接続される。上述のDDC83は、SDA信号が伝送されるラインおよびSCL信号が伝送されるラインにより構成される。   A CEC line 84 through which a CEC signal as control data is transmitted is connected to a pin having a pin number of 13, and a pin having a pin number of 14 is a reserved pin. A line through which an SDA (Serial Data) signal such as E-EDID is transmitted is connected to a pin having a pin number of 16 and is an SCL (Serial Clock) which is a clock signal used for synchronization when transmitting and receiving the SDA signal. A line through which a signal is transmitted is connected to a pin having a pin number of 15. The above-described DDC 83 includes a line for transmitting the SDA signal and a line for transmitting the SCL signal.

また、上述したようにソース機器がシンク機器の接続を検出するためのHPDライン86は、ピン番号が19であるピンに接続される。また、上述したように電源を供給するためのライン87は、ピン番号が18であるピンに接続される。   Further, as described above, the HPD line 86 for detecting the connection of the sink device by the source device is connected to the pin having the pin number 19. Further, as described above, the line 87 for supplying power is connected to a pin having a pin number of 18.

[立体画像データの伝送方式例]
立体画像データ(3D画像データ)の伝送方式として、以下の第1〜第3の伝送方式を挙げるが、これら以外の伝送方式であってもよい。ここでは、図8に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、1920×1080pのピクセルフォーマットの画像データである場合を例にとって説明する。
[Example of transmission method of stereoscopic image data]
As transmission methods for stereoscopic image data (3D image data), the following first to third transmission methods are listed, but other transmission methods may be used. Here, as shown in FIG. 8, an example will be described in which the image data of the left eye (L) and the right eye (R) is image data of a 1920 × 1080p pixel format, respectively.

第1の伝送方式は、図9(a)に示すように、左眼画像データと右眼画像データとをフィールド毎に順次切換えて伝送する方式である。この場合、切換え処理のためフィールドメモリが必要となるが、ソース機器での信号処理は最も簡単なものとなる。図10は、第1の伝送方式におけるTMDS伝送データ例を示している。この場合、奇数フィールドの1920ピクセル×1080ラインのアクティブビデオ区間に、1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)の左眼(L)画像データが配置される。また、偶数フィールドの1920ピクセル×1080ラインのアクティブビデオ区間に、1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)の右眼(R)画像データが配置される。   As shown in FIG. 9A, the first transmission method is a method in which left-eye image data and right-eye image data are sequentially switched and transmitted for each field. In this case, a field memory is required for the switching process, but signal processing at the source device is the simplest. FIG. 10 shows an example of TMDS transmission data in the first transmission method. In this case, left-eye (L) image data of effective pixels (active pixels) corresponding to 1920 pixels × 1080 lines is arranged in an active video section of 1920 pixels × 1080 lines in an odd field. Also, right-eye (R) image data of effective pixels (active pixels) for 1920 pixels × 1080 lines is arranged in an active video section of 1920 pixels × 1080 lines in the even field.

第2の伝送方式は、図9(b)に示すように、左眼画像データの1ライン分と右眼画像データの1ライン分とを交互に伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、ラインが1/2に間引かれる。この方式は、「位相差プレート方式」と呼ばれる立体画像の表示方式の映像信号そのものであり、シンク機器の表示部での信号処理が最も簡単な方式であるが、原信号に対して垂直解像度は半分となる。   As shown in FIG. 9B, the second transmission method is a method of alternately transmitting one line of left eye image data and one line of right eye image data. In this case, the left eye image data and the right eye image data are each thinned by half. This method is a video signal itself of a stereoscopic image display method called a “phase difference plate method”, which is the simplest method for signal processing on the display unit of the sink device, but the vertical resolution is lower than the original signal. It becomes half.

図11は、第2の伝送方式のTMDS伝送データ例を示している。この場合、1920ピクセル×1080ラインのアクティブビデオ区間に、1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)のデータ(左眼(L)画像データおよび右眼(R)画像データの合成データ)が配置される。この第2の伝送方式の場合、上述したように、左眼画像データおよび右眼画像データは、それぞれ、垂直方向のラインが1/2に間引かれる。ここで、伝送すべき左眼画像データは奇数ラインまたは偶数ラインのいずれかであり、同様に、伝送すべき右眼画像データは奇数ラインまたは偶数ラインのいずれかである。   FIG. 11 shows an example of TMDS transmission data of the second transmission method. In this case, 1920 pixel × 1080 line active video section, 1920 pixel × 1080 line effective pixel (active pixel) data (the synthesis of left eye (L) image data and right eye (R) image data). Data) is arranged. In the case of the second transmission method, as described above, the left-eye image data and the right-eye image data are each thinned by 1/2 in the vertical direction. Here, the left eye image data to be transmitted is either an odd line or an even line, and similarly, the right eye image data to be transmitted is either an odd line or an even line.

第3の伝送方式は、現在実験放送で用いられている「Side By Side」方式で、図9(c)に示すように、水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。この第3の伝送方式は、立体画像データに非対応のソース機器でも既存の2D画像データとして出力すれば対応でき、従来のソース機器との互換性が高い方式である。   The third transmission method is a “Side By Side” method that is currently used in experimental broadcasting. As shown in FIG. 9C, pixel data of left-eye image data is transmitted in the first half of the horizontal direction, and horizontal In the latter half of the direction, the pixel data of the right eye image data is transmitted. In this case, in the left eye image data and the right eye image data, the pixel data in the horizontal direction is thinned out to 1/2. This third transmission method is compatible even with a source device that does not support stereoscopic image data if it is output as existing 2D image data, and is highly compatible with conventional source devices.

図12は、第3の伝送方式のTMDS伝送データ例を示している。この場合、1920ピクセル×1080ラインのアクティブビデオ区間に、1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)のデータ(左眼(L)画像データおよび右眼(R)画像データの合成データ)が配置される。この第3の伝送方式の場合、上述したように、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。   FIG. 12 shows an example of TMDS transmission data of the third transmission method. In this case, 1920 pixel × 1080 line active video section, 1920 pixel × 1080 line effective pixel (active pixel) data (the synthesis of left eye (L) image data and right eye (R) image data). Data) is arranged. In the case of the third transmission method, as described above, the left-eye image data and the right-eye image data are each decimated by half of the pixel data in the horizontal direction.

[ディスクプレーヤにおけるタイミング補正動作]
図1に示すAVシステム200において、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、タイミング補正が行われる。このタイミング補正が、ディスクプレーヤ210の映像信号処理回路217で行われる場合について説明する。
[Timing correction operation in disc player]
In the AV system 200 shown in FIG. 1, the shooting timing of the left eye image data and right eye image data reproduced by the disc player 210 is different from the display timing of the left eye image and right eye image displayed by the television receiver 250. In some cases, timing correction is performed. A case where the timing correction is performed by the video signal processing circuit 217 of the disc player 210 will be described.

この実施の形態において、ディスクプレーヤ210は、テレビ受信機250より、左眼画像および右眼画像の表示タイミング情報を取得する。すなわち、ディスクプレーヤ210(CPU221)は、テレビ受信機250からE−EDID(Enhanced Extended Display Identification Data)を読み出すことで、表示タイミング情報を取得する。換言すれば、テレビ受信機250は、E−EDIDに表示タイミング情報を含めておくことで、当該情報を、ディスクプレーヤ210に供給する。   In this embodiment, the disc player 210 acquires display timing information of the left eye image and the right eye image from the television receiver 250. That is, the disc player 210 (CPU 221) acquires display timing information by reading E-EDID (Enhanced Extended Display Identification Data) from the television receiver 250. In other words, the television receiver 250 supplies the information to the disc player 210 by including the display timing information in the E-EDID.

図13は、E−EDIDのデータ構造例を示している。このE−EDIDは、基本ブロックと拡張ブロックとからなっている。基本ブロックの先頭には、“E−EDID1.3 Basic Structure”で表されるE−EDID1.3の規格で定められたデータが配置され、続いて“Preferred timing”で表される従来のEDIDとの互換性を保つためのタイミング情報、および“2nd timing”で表される従来のEDIDとの互換性を保つための“Preferred timing”とは異なるタイミング情報が配置されている。   FIG. 13 shows an example of the data structure of E-EDID. This E-EDID is composed of a basic block and an extended block. At the head of the basic block, data defined by the E-EDID 1.3 standard represented by “E-EDID 1.3 Basic Structure” is arranged, and then the conventional EDID represented by “Preferred timing” and Timing information for maintaining the compatibility of the EDID and timing information different from “Preferred timing” for maintaining the compatibility with the conventional EDID represented by “2nd timing” are arranged.

また、基本ブロックには、“2nd timing”に続いて、“Monitor NAME”で表される表示装置の名前を示す情報、および“Monitor Range Limits”で表される、アスペクト比が4:3および16:9である場合についての表示可能な画素数を示す情報が順番に配置されている。   The basic block includes information indicating the name of the display device represented by “Monitor NAME” following “2nd timing”, and aspect ratios represented by “Monitor Range Limits” of 4: 3 and 16 : Information indicating the number of displayable pixels in the case of 9 is arranged in order.

拡張ブロックの先頭には、“Short Video Descriptor”が配置されている。これは、表示可能な画像サイズ(解像度)、フレームレート、インターレースであるかプログレッシブであるかを示す情報である。続いて、“Short Audio Descriptor”が配置されている。これは、再生可能な音声コーデック方式、サンプリング周波数、カットオフ帯域、コーデックビット数などの情報である。続いて、 “Speaker Allocation”で表される左右のスピーカに関する情報が配置されている。   “Short Video Descriptor” is arranged at the head of the extended block. This is information indicating the displayable image size (resolution), the frame rate, and whether it is interlaced or progressive. Subsequently, “Short Audio Descriptor” is arranged. This is information such as a reproducible audio codec system, a sampling frequency, a cutoff band, and the number of codec bits. Subsequently, information on left and right speakers represented by “Speaker Allocation” is arranged.

また、拡張ブロックには、“Speaker Allocation”に続いて、“Vender Specific”で表されるメーカごとに固有に定義されたデータ、“3rd timing”で表される従来のEDIDとの互換性を保つためのタイミング情報、および“4th timing”で表される従来のEDIDとの互換性を保つためのタイミング情報が配置されている。   In addition, the extension block maintains compatibility with the conventional EDID represented by “3rd timing”, the data defined uniquely for each manufacturer represented by “Vender Specific” following “Speaker Allocation”. Timing information for maintaining compatibility with the conventional EDID represented by “4th timing” is arranged.

図14は、Vender Specific領域(HDMI Vendor Specific Data Block)のデータ構造例を示している。このVender Specific領域には、1バイトのブロックである第0ブロック乃至第Nブロックが設けられている。   FIG. 14 shows an example of the data structure of the Vender Specific area (HDMI Vendor Specific Data Block). In the Vender Specific area, a 0th block to an Nth block, which are 1-byte blocks, are provided.

“Vender Specific”で表されるデータの先頭に配置された第0ブロックには、“Vendor−Specific tag code(=3)”で表されるデータ“Vender Specific”のデータ領域を示すヘッダ、および“Length(=N)”で表されるデータ“Vender Specific”の長さを示す情報が配置される。   In the 0th block arranged at the head of the data represented by “Vender Specific”, a header indicating a data area of data “Vender Specific” (“Vender-Specific tag code (= 3)”) and “Vendor Specific” Information indicating the length of the data “Vender Specific” represented by “Length (= N)” is arranged.

また、第1ブロック乃至第3ブロックには、“24bit IEEE Registration Identifier(0x000C03)LSB first”で表されるHDMI(R)用として登録された番号“0x000C03“を示す情報が配置される。さらに、第4ブロックおよび第5ブロックには、”A“、”B“、”C“、および”D“のそれぞれにより表される、24bitのシンク機器の物理アドレスを示す情報が配置される。   In the first to third blocks, information indicating the number “0x000C03” registered for HDMI (R) represented by “24-bit IEEE Registration Identifier (0x000C03) LSB first” is arranged. Further, in the fourth block and the fifth block, information indicating the physical address of the 24-bit sink device represented by “A”, “B”, “C”, and “D” is arranged.

第6ブロックには、“Supports−AI”で表されるシンク機器が対応している機能を示すフラグ、“DC−48bit”、“DC−36bit”、および“DC−30bit”のそれぞれで表される1ピクセル当たりのビット数を指定する情報のそれぞれ、“DC−Y444”で表される、シンク機器がYCbCr4:4:4の画像の伝送に対応しているかを示すフラグ、および“DVI−Dual”で表される、シンク機器がデュアルDVI(Digital Visual Interface)に対応しているかを示すフラグが配置されている。   The sixth block is represented by a flag indicating a function supported by the sink device represented by “Supports-AI”, “DC-48 bit”, “DC-36 bit”, and “DC-30 bit”. Each of the information specifying the number of bits per pixel, a flag indicating whether the sink device supports transmission of a YCbCr4: 4: 4 image, represented by “DC-Y444”, and “DVI-Dual A flag indicating whether the sink device corresponds to dual DVI (Digital Visual Interface) is arranged.

また、第7ブロックには、“Max−TMDS−Clock”で表されるTMDSのピクセルクロックの最大の周波数を示す情報が配置される。さらに、第8ブロックの第6ビット、第7ビットには、“Latency”で表される映像と音声の遅延情報の有無を示すフラグが配置されている。   In the seventh block, information indicating the maximum frequency of the TMDS pixel clock represented by “Max-TMDS-Clock” is arranged. Furthermore, a flag indicating the presence or absence of video and audio delay information represented by “Latency” is arranged in the sixth and seventh bits of the eighth block.

また、第9ブロックには、“Video Latency”で表される、プログレッシブの映像の遅延時間データが配置され、第10ブロックには、“Audio Latency”で表される、プログレッシブの映像に付随する音声の遅延時間データが配置される。さらに、第11ブロックには、“Interlaced Video Latency”で表されるインターレースの映像の遅延時間データが配置され、第12ブロックには、“Interlaced Audio Latency”で表される、インターレースの映像に付随する音声の遅延時間データが配置されている。   In addition, in the ninth block, the delay time data of the progressive video represented by “Video Latency” is arranged, and in the tenth block, the audio accompanying the progressive video represented by “Audio Latency”. The delay time data is arranged. Furthermore, in the eleventh block, delay time data of an interlaced video represented by “Interlaced Video Latency” is arranged, and in the twelfth block, an interlaced video represented by “Interlaced Audio Latency” is attached. Audio delay time data is arranged.

この実施の形態において、第8ブロックの第5ビットには、表示タイミング情報の有無を示すフラグ(3D_Fields_Present)が配置されている。このフラグが“1”とされて、第13ブロックの第6ビットおよび第7ビットに、表示タイミング情報(LR_Display_Timing)が配置される。   In this embodiment, a flag (3D_Fields_Present) indicating the presence / absence of display timing information is arranged in the fifth bit of the eighth block. This flag is set to “1”, and display timing information (LR_Display_Timing) is arranged in the sixth and seventh bits of the thirteenth block.

例えば、「00」は、左眼画像および右眼画像の表示タイミングが同じであることを示す。また、例えば、「01」は、左眼画像および右眼画像を交互に表示し、同じフレーム内では左眼画像、右眼画像の順に表示することを示す。また、例えば、「10」は、左眼画像および右眼画像を交互に表示し、同じフレーム内では右眼画像、左眼画像の順に表示することを示す。   For example, “00” indicates that the display timings of the left eye image and the right eye image are the same. Further, for example, “01” indicates that the left eye image and the right eye image are alternately displayed, and the left eye image and the right eye image are displayed in this order in the same frame. Further, for example, “10” indicates that the left eye image and the right eye image are alternately displayed, and the right eye image and the left eye image are displayed in this order in the same frame.

なお、同じフレーム内で左眼画像、右眼画像の順に表示されることが決まっている場合には、この表示タイミング情報(LR_Display_Timing)を、1ビットの情報とすることも考えられる。この場合、例えば、「0」は、左眼画像および右眼画像の表示タイミングが同じであることを示す。また、「1」は、左眼画像および右眼画像を交互に表示し、同じフレーム内では左眼画像、右眼画像の順に表示することを示す。
なお、表示タイミング情報は、上述のようにHDMI経由で自動的に読み出すだけでなく、ディスクプレーヤ210上で、ユーザに設定(選択)させることで取得する構成であってもよい。その場合、例えば、ユーザは、リモコン送信機227を操作することで、左眼画像および右眼画像の表示タイミングを設定する。この場合、リモコン送信機227は、ユーザ設定部を構成する。
In addition, when it is determined that the left-eye image and the right-eye image are displayed in the same frame, the display timing information (LR_Display_Timing) may be 1-bit information. In this case, for example, “0” indicates that the display timings of the left eye image and the right eye image are the same. “1” indicates that the left-eye image and the right-eye image are alternately displayed, and the left-eye image and the right-eye image are displayed in the same frame.
It should be noted that the display timing information may be acquired not only automatically via HDMI as described above, but also acquired by setting (selecting) on the disc player 210 by the user. In that case, for example, the user operates the remote control transmitter 227 to set the display timing of the left eye image and the right eye image. In this case, the remote control transmitter 227 constitutes a user setting unit.

ディスクプレーヤ210のCPU221は、上述したようにE−EDIDに含まれている表示タイミング情報、あるいはユーザにより設定された表示タイミング情報により、テレビ受信機250における左眼画像および右眼画像の表示タイミングを認識する。また、CPU221は、BD/DVDドライブ214で再生された左眼画像データおよび右眼画像データの撮影タイミングを、例えば、これらの映像のエレメンタリストリーム内のメタデータや、BD/DVDディスク内のメタデータに付加されているメタデータにより認識する。   As described above, the CPU 221 of the disc player 210 determines the display timing of the left eye image and the right eye image in the television receiver 250 based on the display timing information included in the E-EDID or the display timing information set by the user. recognize. Further, the CPU 221 determines the shooting timing of the left eye image data and right eye image data reproduced by the BD / DVD drive 214, for example, the metadata in the elementary stream of these videos or the meta data in the BD / DVD disc. Recognize by metadata attached to data.

CPU221は、撮影タイミングと表示タイミングが異なる場合、映像信号処理回路217で、タイミング補正処理が行われるように制御する。このタイミング補正処理により、BD/DVDドライブ214で再生された左眼画像データおよび右眼画像データのタイミングが、左眼画像および右眼画像の表示タイミングと合うようにされる。   When the shooting timing and the display timing are different, the CPU 221 controls the video signal processing circuit 217 to perform the timing correction process. By this timing correction processing, the timing of the left eye image data and the right eye image data reproduced by the BD / DVD drive 214 is matched with the display timing of the left eye image and the right eye image.

「タイミング補正処理」
ディスクプレーヤ210の映像信号処理回路217におけるタイミング補正処理について説明する。撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。第1の場合は、左眼画像データおよび右眼画像データが交互に撮影されて得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。第2の場合は、左眼画像データおよび右眼画像データが同じタイミングで撮影されて得られたものであり、左眼画像および右眼画像が交互に表示される場合である。
"Timing correction process"
Timing correction processing in the video signal processing circuit 217 of the disc player 210 will be described. When the shooting timing and the display timing are different, there are the following two types. The first case is obtained by alternately capturing left eye image data and right eye image data, and the left eye image and the right eye image are displayed at the same timing. In the second case, the left eye image data and the right eye image data are obtained by being photographed at the same timing, and the left eye image and the right eye image are alternately displayed.

最初に、第1の場合に映像信号処理回路217で行われるタイミング補正処理を、図15を参照して説明する。なお、この図15は、同じフレーム内では左眼画像データ(L)および右眼画像データ(R)の順に撮影されている場合の例を示している。   First, timing correction processing performed in the video signal processing circuit 217 in the first case will be described with reference to FIG. FIG. 15 shows an example in which the left eye image data (L) and the right eye image data (R) are captured in the same frame.

(a)第1の補正処理例
図15(a)は、第1の補正処理例を示している。この第1の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の双方のタイミングが補正される例である。このように双方のタイミングが補正されることで、タイミング補正時における左右の画像の画質劣化を同程度にできる。
(A) First Correction Processing Example FIG. 15A shows a first correction processing example. This first correction processing example is an example in which the timings of both the left eye image data (L) and the right eye image data (R) are corrected. By correcting both timings in this way, the image quality deterioration of the left and right images at the time of timing correction can be made comparable.

この場合、左眼画像データに関しては、各フレームにおいて、前後の左眼画像データ(L)を用いた補間処理により、0.25フレーム期間だけ進んだタイミングの左眼画像データ(L′)が生成される。また、右眼画像データに関しては、各フレームにおいて、前後の右眼画像データ(R)を用いた補間処理により、0.25フレーム期間だけ遅れたタイミングの右眼画像データ(R′)が生成される。このように生成された左眼画像データ(L′)および右眼画像データ(R′)のタイミングは各フレームで一致し、左眼画像および右眼画像の表示タイミングに合ったものとなる。   In this case, as for the left eye image data, left eye image data (L ′) at a timing advanced by 0.25 frame period is generated in each frame by interpolation processing using the left and right left eye image data (L). Is done. As for right-eye image data, right-eye image data (R ′) with a timing delayed by 0.25 frame period is generated in each frame by interpolation processing using the right and left right-eye image data (R). The The timings of the left-eye image data (L ′) and the right-eye image data (R ′) generated in this way are the same in each frame, and match the display timing of the left-eye image and the right-eye image.

(b)第2の補正処理例
図15(b)は、第2の補正処理例を示している。この第2の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の一方のタイミングが補正される例である。この場合、右眼画像データに関しては、前後の右眼画像データ(R)を用いた補間処理により、0.5フレーム期間だけタイミングがずらされた右眼画像データ(R′)が生成される。このように生成された右眼画像データ(R′)と、左眼画像データ(L)のタイミングは各フレームで一致し、左眼画像および右眼画像の表示タイミングに合ったものとなる。
(B) Second Correction Processing Example FIG. 15B shows a second correction processing example. In the second correction processing example, one timing of the left eye image data (L) and the right eye image data (R) is corrected. In this case, for the right eye image data, right eye image data (R ′) whose timing is shifted by 0.5 frame periods is generated by interpolation processing using the right and left right eye image data (R). The timings of the right eye image data (R ′) and the left eye image data (L) generated in this way are the same in each frame, and match the display timing of the left eye image and the right eye image.

なお、図15(b)は、右眼画像データ(R)のタイミングが補正される例を示しているが、逆に、左眼画像データ(L)のタイミングが補正されてもよい。この実施の形態において、ディスクプレーヤ210では、ユーザは、リモコン送信機227の操作により、左眼画像データ(L)および右眼画像データ(R)のうちいずれのタイミングを補正するか選択可能とされる。ここで、リモコン送信機227は、タイミング補正する画像データを選択する選択部を構成する。この場合、タイミングを補正する画像データとして、効き目ではない方の画像を表示する画像データを選択することで、タイミング補正時における画質劣化の影響を抑えることができる。   FIG. 15B shows an example in which the timing of the right eye image data (R) is corrected. Conversely, the timing of the left eye image data (L) may be corrected. In this embodiment, in the disc player 210, the user can select which of the left eye image data (L) and the right eye image data (R) is to be corrected by operating the remote control transmitter 227. The Here, the remote control transmitter 227 constitutes a selection unit that selects image data for timing correction. In this case, by selecting the image data that displays the image that is not effective as the image data for correcting the timing, it is possible to suppress the influence of the image quality deterioration during the timing correction.

次に、第2の場合に映像信号処理回路217で行われるタイミング補正処理を、図16を参照して説明する。なお、この図16は、同じフレーム内では右眼画像および左眼画像の順に表示される場合の例を示している。   Next, timing correction processing performed in the video signal processing circuit 217 in the second case will be described with reference to FIG. Note that FIG. 16 shows an example in which the right eye image and the left eye image are displayed in this order in the same frame.

(a)第1の補正処理例
図16(a)は、第1の補正処理例を示している。この第1の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の双方のタイミングが補正される例である。このように双方のタイミングが補正されることで、タイミング補正時における左右の画像の画質劣化を同程度にできる。
(A) First Correction Processing Example FIG. 16A shows a first correction processing example. This first correction processing example is an example in which the timings of both the left eye image data (L) and the right eye image data (R) are corrected. By correcting both timings in this way, the image quality deterioration of the left and right images at the time of timing correction can be made comparable.

この場合、左眼画像データに関しては、各フレームにおいて、前後の左眼画像データ(L)を用いた補間処理により、0.75フレーム期間だけ進んだタイミングの左眼画像データ(L′)が生成される。また、右眼画像データに関しては、各フレームにおいて、前後の右眼画像データ(R)を用いた補間処理により、0.25フレーム期間だけ進んだタイミングの右眼画像データ(R′)が生成される。このように生成された左眼画像データ(L′)および右眼画像データ(R′)のタイミングは0.5フレーム毎の交互となり、左眼画像および右眼画像の表示タイミングに合ったものとなる。   In this case, for the left eye image data, left eye image data (L ′) at a timing advanced by 0.75 frame period is generated in each frame by interpolation processing using the left and right left eye image data (L). Is done. As for the right eye image data, right eye image data (R ′) at a timing advanced by 0.25 frame period is generated in each frame by interpolation processing using the right and left right eye image data (R). The The timings of the left eye image data (L ′) and the right eye image data (R ′) generated in this way are alternated every 0.5 frame, and the timing matches the display timing of the left eye image and the right eye image. Become.

(b)第2の補正処理例
図16(b)は、第2の補正処理例を示している。この第2の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の一方のタイミングが補正される例である。この場合、右眼画像データに関しては、前後の右眼画像データ(R)を用いた補間処理により、各フレームにおいて、0.5フレーム期間だけ進んだタイミングの右眼画像データ(R′)が生成される。このように生成された右眼画像データ(R′)と、左眼画像データ(L)のタイミングは0.5フレーム毎の交互となり、左眼画像および右眼画像の表示タイミングに合ったものとなる。
(B) Second Correction Processing Example FIG. 16B shows a second correction processing example. In the second correction processing example, one timing of the left eye image data (L) and the right eye image data (R) is corrected. In this case, with respect to the right eye image data, right eye image data (R ′) at a timing advanced by 0.5 frame period is generated in each frame by interpolation processing using the right and left right eye image data (R). Is done. The timings of the right eye image data (R ′) and the left eye image data (L) generated in this way are alternated every 0.5 frames, and the timings correspond to the display timing of the left eye image and the right eye image. Become.

なお、図16(b)は、右眼画像データ(R)のタイミングが補正される例を示しているが、逆に、左眼画像データ(L)のタイミングが補正されてもよい。この実施の形態において、ディスクプレーヤ210では、ユーザは、リモコン送信機227の操作により、左眼画像データ(L)および右眼画像データ(R)のうちいずれのタイミングを補正するか選択可能とされる。ここで、リモコン送信機227は、タイミング補正する画像データを選択する選択部を構成する。この場合、タイミングを補正する画像データとして、効き目ではない方の画像を表示する画像データを選択することで、タイミング補正時における画質劣化の影響を抑えることができる。   FIG. 16B shows an example in which the timing of the right eye image data (R) is corrected. Conversely, the timing of the left eye image data (L) may be corrected. In this embodiment, in the disc player 210, the user can select which of the left eye image data (L) and the right eye image data (R) is to be corrected by operating the remote control transmitter 227. The Here, the remote control transmitter 227 constitutes a selection unit that selects image data for timing correction. In this case, by selecting the image data that displays the image that is not effective as the image data for correcting the timing, it is possible to suppress the influence of the image quality deterioration during the timing correction.

[テレビ受信機におけるタイミング補正動作]
図1に示すAVシステム200において、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、タイミング補正が行われる。このタイミング補正が、テレビ受信機250の3D信号処理部254で行われる場合について説明する。
[Timing correction operation in TV receiver]
In the AV system 200 shown in FIG. 1, the shooting timing of the left eye image data and right eye image data reproduced by the disc player 210 is different from the display timing of the left eye image and right eye image displayed by the television receiver 250. In some cases, timing correction is performed. A case where the timing correction is performed by the 3D signal processing unit 254 of the television receiver 250 will be described.

この実施の形態において、テレビ受信機250は、ディスクプレーヤ210より、左眼画像データおよび右眼画像データの撮影タイミング情報を取得する。すなわち、テレビ受信機250は、撮影タイミング情報を、HDMI受信部252で受信された立体画像データのブランキング期間から抽出して取得する。換言すれば、ディスクプレーヤ210は、HDMI送信部212から送信すべき立体画像データのブランキング期間に挿入することで、撮影タイミング情報をテレビ受信機250に供給する。   In this embodiment, the television receiver 250 acquires shooting timing information of left-eye image data and right-eye image data from the disc player 210. That is, the television receiver 250 extracts and acquires shooting timing information from the blanking period of the stereoscopic image data received by the HDMI receiving unit 252. In other words, the disc player 210 supplies the photographing timing information to the television receiver 250 by inserting it in the blanking period of the stereoscopic image data to be transmitted from the HDMI transmission unit 212.

この場合、ディスクプレーヤ210は、例えば、HDMIのAVI(Auxiliary Video Information) InfoFrameパケットを用いて、撮影タイミング情報を立体画像データのブランキング期間に挿入する。AVI InfoFrameパケットは、上述したデータアイランド区間に配置される(図6参照)。図17は、AVI InfoFrameパケットのデータ構造例を示している。HDMIでは、当該AVI InfoFrameパケットにより、画像に関する付帯情報をソース機器からシンク機器に伝送可能となっている。   In this case, the disc player 210 uses, for example, an HDMI AVI (Auxiliary Video Information) InfoFrame packet to insert shooting timing information into a blanking period of stereoscopic image data. The AVI InfoFrame packet is arranged in the data island section described above (see FIG. 6). FIG. 17 shows an example of the data structure of an AVI InfoFrame packet. In HDMI, the AVI InfoFrame packet can be used to transmit incidental information about an image from a source device to a sink device.

第0バイトにデータパケットの種類を示す「Packet Type」が定義されている。AVI InfoFrameパケットの「Packet Type」は「0x82」となっている。第1バイトにパケットデータ定義のバージョン情報を記述する。第2バイトにパケット長を表す情報を記述する。AVI InfoFrameのそれぞれは、CEA-861-Dに定義されているので省略する。   “Packet Type” indicating the type of data packet is defined in the 0th byte. The “Packet Type” of the AVI InfoFrame packet is “0x82”. The version information of the packet data definition is described in the first byte. Information indicating the packet length is described in the second byte. Since each AVI InfoFrame is defined in CEA-861-D, it will be omitted.

第17バイトについて説明する。第17バイトの第6ビットおよび第7ビットに、撮影タイミング情報(LR_Image_Timing)が配置される。   The 17th byte will be described. Shooting timing information (LR_Image_Timing) is arranged in the sixth and seventh bits of the 17th byte.

例えば、「00」は、左眼画像データおよび右眼画像データの撮影タイミングが同じであることを示す。また、例えば、「01」は、左眼画像データおよび右眼画像データは交互に撮影され、同じフレーム内では左眼画像データ、右眼画像データの順で撮影されたことを示す。また、例えば、「10」は、左眼画像データおよび右眼画像データは交互に撮影され、同じフレーム内では右眼画像データ、左眼画像データの順で撮影されたことを示す。   For example, “00” indicates that the left eye image data and the right eye image data have the same shooting timing. For example, “01” indicates that the left eye image data and the right eye image data are alternately captured, and the left eye image data and the right eye image data are captured in the same frame. For example, “10” indicates that the left-eye image data and the right-eye image data are alternately captured, and the right-eye image data and the left-eye image data are captured in the same frame.

なお、同じフレーム内で左眼画像データ、右眼画像データの順に撮影されることが決まっている場合には、この撮影タイミング情報(LR_Image_Timing)を、1ビットの情報とすることも考えられる。この場合、例えば、「0」は、左眼画像データおよび右眼画像データの表示タイミングが同じであることを示す。また、「1」は、左眼画像データおよび右眼画像データは交互に撮影され、同じフレーム内では左眼画像データ、右眼画像データの順で撮影されたことを示す。
なお、撮影タイミング情報は、上述のようにHDMI経由で自動的に読み出すだけでなく、テレビ受信機250で、ユーザに設定(選択)させることで取得する構成であってもよい。その場合、例えば、ユーザは、リモコン送信機277を操作することで、左眼画像データおよび右眼画像データのタイミングを設定する。この場合、リモコン送信機277は、ユーザ設定部を構成する。また、自動取得やユーザ設定なしに左眼画像データおよび右眼画像データのタイミングが同じであると見なして動作する構成であってもよい。
In addition, when it is determined that the left eye image data and the right eye image data are captured in the same frame, it may be considered that this photographing timing information (LR_Image_Timing) is 1-bit information. In this case, for example, “0” indicates that the display timings of the left eye image data and the right eye image data are the same. “1” indicates that the left-eye image data and the right-eye image data are alternately captured, and the left-eye image data and the right-eye image data are captured in the same frame.
Note that the photographing timing information may be acquired not only automatically via HDMI as described above but also acquired by setting (selecting) by the television receiver 250 by the user. In that case, for example, the user operates the remote control transmitter 277 to set the timing of the left eye image data and the right eye image data. In this case, the remote control transmitter 277 constitutes a user setting unit. Moreover, the structure which operate | moves on the assumption that the timing of left eye image data and right eye image data is the same without automatic acquisition or a user setting may be sufficient.

「タイミング補正処理」
テレビ受信機250の3D信号処理部254におけるタイミング補正処理について説明する。撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。第1の場合は、左眼画像データおよび右眼画像データが交互に撮影されて得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。第2の場合は、左眼画像データおよび右眼画像データが同じタイミングで撮影されて得られたものであり、左眼画像および右眼画像が交互に表示される場合である。
"Timing correction process"
Timing correction processing in the 3D signal processing unit 254 of the television receiver 250 will be described. When the shooting timing and the display timing are different, there are the following two types. The first case is obtained by alternately capturing left eye image data and right eye image data, and the left eye image and the right eye image are displayed at the same timing. In the second case, the left eye image data and the right eye image data are obtained by being photographed at the same timing, and the left eye image and the right eye image are alternately displayed.

最初に、第1の場合に3D信号処理部254で行われるタイミング補正処理を、図15および図18を参照して説明する。なお、この図15、図18は、同じフレーム内では左眼画像データ(L)および右眼画像データ(R)の順に撮影されている場合の例を示している。   First, timing correction processing performed in the 3D signal processing unit 254 in the first case will be described with reference to FIGS. 15 and 18. FIGS. 15 and 18 show an example in which the left eye image data (L) and the right eye image data (R) are captured in the same frame.

(a)第1の補正処理例
図15(a)は、第1の補正処理例を示している。この第1の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の双方のタイミングが補正される例である。この第1の補正処理例の説明は、上述のディスクプレーヤ210におけるタイミング補正動作の項目で説明しているので、省略する。
(A) First Correction Processing Example FIG. 15A shows a first correction processing example. This first correction processing example is an example in which the timings of both the left eye image data (L) and the right eye image data (R) are corrected. Since the description of the first correction processing example has been described in the item of the timing correction operation in the above-described disc player 210, a description thereof will be omitted.

(b)第2の補正処理例
図15(b)は、第2の補正処理例を示している。この第2の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の一方のタイミングが補正される例である。この第2の補正処理例の説明は、上述のディスクプレーヤ210におけるタイミング補正動作の項目で説明しているので、省略する。
(B) Second Correction Processing Example FIG. 15B shows a second correction processing example. In the second correction processing example, one timing of the left eye image data (L) and the right eye image data (R) is corrected. Since the description of the second correction processing example has been described in the item of the timing correction operation in the above-described disc player 210, the description thereof will be omitted.

図18は、第3の補正処理例を示している。この第3の補正処理例は、左眼画像データ(L)および右眼画像データ(R)を倍フレームレートの画像データに変換することで、タイミングが補正される例である。図18(a)は、同一のフレーム画像が2度繰り返されて倍フレームレートの画像データとされている。また、図18(b)は、前後のフレーム画像の間に補間処理で生成されたフレーム画像L′、R′が挿入されて倍フレームレートの画像データとされている。   FIG. 18 shows a third correction processing example. This third correction processing example is an example in which the timing is corrected by converting the left eye image data (L) and the right eye image data (R) into image data of a double frame rate. In FIG. 18A, the same frame image is repeated twice to obtain double frame rate image data. Further, in FIG. 18B, the frame images L ′ and R ′ generated by the interpolation processing are inserted between the previous and next frame images to obtain double frame rate image data.

このように倍フレームレートの画像データに変換してタイミング補正を行う場合、左眼画像および右眼画像が倍フレームレートで表示されることから、残像感を低減できる。また、図18(b)に示すように前後の画像データを用いた補間処理により倍フレームレートの画像データを得る場合には、滑らかな動きの画像を表示できる。   In this way, when the timing correction is performed by converting the image data to the double frame rate, the left eye image and the right eye image are displayed at the double frame rate, so that the afterimage can be reduced. In addition, as shown in FIG. 18B, when image data having a double frame rate is obtained by interpolation processing using previous and subsequent image data, an image with smooth motion can be displayed.

次に、第2の場合に3D信号処理部229で行われるタイミング補正処理を、図16を参照して説明する。なお、この図16は、同じフレーム内では右眼画像および左眼画像の順に表示される場合の例を示している。   Next, timing correction processing performed by the 3D signal processing unit 229 in the second case will be described with reference to FIG. Note that FIG. 16 shows an example in which the right eye image and the left eye image are displayed in this order in the same frame.

(a)第1の補正処理例
図16(a)は、第1の補正処理例を示している。この第1の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の双方のタイミングが補正される例である。この第1の補正処理例の説明は、上述のディスクプレーヤ210におけるタイミング補正動作の項目で説明しているので、省略する。
(A) First Correction Processing Example FIG. 16A shows a first correction processing example. This first correction processing example is an example in which the timings of both the left eye image data (L) and the right eye image data (R) are corrected. Since the description of the first correction processing example has been described in the item of the timing correction operation in the above-described disc player 210, a description thereof will be omitted.

(b)第2の補正処理例
図16(b)は、第2の補正処理例を示している。この第2の補正処理例は、左眼画像データ(L)および右眼画像データ(R)の一方のタイミングが補正される例である。この第2の補正処理例の説明は、上述のディスクプレーヤ210におけるタイミング補正動作の項目で説明しているので、省略する。
(B) Second Correction Processing Example FIG. 16B shows a second correction processing example. In the second correction processing example, one timing of the left eye image data (L) and the right eye image data (R) is corrected. Since the description of the second correction processing example has been described in the item of the timing correction operation in the above-described disc player 210, the description thereof will be omitted.

上述したように、図1に示すAVシステム200においては、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、タイミング補正が行われる。したがって、動きのある画像で画質を改善でき、また、視聴者の疲労感の軽減を図ることができる。   As described above, in the AV system 200 shown in FIG. 1, the left eye image data and right eye image data reproduced by the disc player 210 are captured, and the left eye image and right eye displayed by the television receiver 250 are displayed. When the image display timing is different, timing correction is performed. Therefore, the image quality can be improved with a moving image, and the viewer's fatigue can be reduced.

また、図1に示すAVシステム200において、ディスクプレーヤ210でタイミング補正が行われる場合、ディスクプレーヤ210では、テレビ受信機250から左眼画像および右眼画像の表示タイミング情報が取得され、左眼画像データおよび右眼画像データのタイミング補正が自動的に行われる。また、図1に示すAVシステム200において、テレビ受信機250でタイミング補正が行われる場合、テレビ受信機250では、ディスクプレーヤ210から左眼画像データおよび右眼画像データの撮影タイミング情報が取得され、左眼画像データおよび右眼画像データのタイミング補正が自動的に行われる。したがって、ユーザの操作あるいは設定の手間が増加することがなく、また、ユーザの誤った操作、設定がないため常に正確なタイミング補正が可能となる。   In the AV system 200 shown in FIG. 1, when the timing correction is performed by the disc player 210, the disc player 210 acquires the display timing information of the left eye image and the right eye image from the television receiver 250, and the left eye image The timing correction of the data and the right eye image data is automatically performed. In the AV system 200 shown in FIG. 1, when the timing correction is performed by the television receiver 250, the television receiver 250 acquires the photographing timing information of the left eye image data and the right eye image data from the disc player 210, The timing correction of the left eye image data and the right eye image data is automatically performed. Therefore, the user's operation or setting time is not increased, and since there is no user's erroneous operation and setting, accurate timing correction can always be performed.

<2.第2の実施の形態>
[AVシステムの構成例]
図19は、第2の実施の形態としてのAVシステム200Aの構成例を示している。このAVシステム200Aは、ソース機器としてのゲーム機400と、シンク機器としてのテレビ受信機250とを有している。テレビ受信機250は、図1のAVシステム200におけるテレビ受信機250と同じものである。
<2. Second Embodiment>
[Example of AV system configuration]
FIG. 19 shows a configuration example of an AV system 200A as the second embodiment. The AV system 200A includes a game machine 400 as a source device and a television receiver 250 as a sink device. The television receiver 250 is the same as the television receiver 250 in the AV system 200 of FIG.

ゲーム機400およびテレビ受信機250は、HDMIケーブル350を介して接続されている。ゲーム機400は、HDMI送信部(HDMI TX)402が接続されたHDMI端子401が設けられている。HDMIケーブル350の一端はゲーム機400のHDMI端子401に接続され、このHDMIケーブル350の他端はテレビ受信機250のHDMI端子251に接続されている。   The game machine 400 and the television receiver 250 are connected via an HDMI cable 350. The game machine 400 is provided with an HDMI terminal 401 to which an HDMI transmission unit (HDMI TX) 402 is connected. One end of the HDMI cable 350 is connected to the HDMI terminal 401 of the game machine 400, and the other end of the HDMI cable 350 is connected to the HDMI terminal 251 of the television receiver 250.

図19に示すAVシステム200Aにおいて、ゲーム機400からの非圧縮の画像データ(映像信号)はHDMIケーブル350を介してテレビ受信機250に送信され、このテレビ受信機250ではゲーム機400からの画像データによる画像が表示される。また、ゲーム機400からの非圧縮の音声データ(音声信号)はHDMIケーブル350を介してテレビ受信機250に送信され、このテレビ受信機250ではゲーム機400からの音声データによる音声が出力される。   In the AV system 200A shown in FIG. 19, uncompressed image data (video signal) from the game machine 400 is transmitted to the television receiver 250 via the HDMI cable 350, and the television receiver 250 uses the image from the game machine 400. An image based on the data is displayed. Further, uncompressed audio data (audio signal) from the game machine 400 is transmitted to the television receiver 250 via the HDMI cable 350, and the audio based on the audio data from the game machine 400 is output from the television receiver 250. .

ゲーム機400からテレビ受信機250に送られる画像データが立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データ(3D画像データ)である場合、テレビ受信機250では、ゲーム画像として立体画像の表示が行われる。ゲーム機400からテレビ受信機250への立体画像データの伝送方式は、図1に示すAVシステム200におけるディスクプレーヤ210からテレビ受信機250への立体画像データの伝送方式と同様である(図9〜図12参照)。   When the image data sent from the game machine 400 to the television receiver 250 is stereoscopic image data (3D image data) including left-eye image data and right-eye image data for displaying a stereoscopic image, the television receiver 250 A stereoscopic image is displayed as a game image. The transmission method of stereoscopic image data from the game machine 400 to the television receiver 250 is the same as the transmission method of stereoscopic image data from the disc player 210 to the television receiver 250 in the AV system 200 shown in FIG. (See FIG. 12).

ここで、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングとしては、上述したように、同時および交互の2種類がある。図19に示すAVシステム200Aにおいて、ゲーム機400で生成されるゲーム画像としての立体画像を表示するための左眼画像データおよび右眼画像データのタイミングは、テレビ受信機250における左眼画像および右眼画像の表示タイミングに合わせられる。   Here, as described above, there are two types of display timings of the left eye image and the right eye image displayed on the television receiver 250: simultaneous and alternating. In the AV system 200A shown in FIG. 19, the timings of the left eye image data and the right eye image data for displaying a stereoscopic image as a game image generated by the game machine 400 are the left eye image and the right eye in the television receiver 250. It matches the display timing of the eye image.

[ゲーム機の構成例]
図20は、ゲーム機400の構成例を示している。
このゲーム機400は、HDMI端子401と、HDMI送信部402と、イーサネットインタフェース(Ethernet I/F)404と、ネットワーク端子405を有している。また、このゲーム機400は、入力インタフェース406と、コントロールパッド407と、ドライブインタフェース408と、DVD/BD(Digital Versatile Disk/Blu-ray Disc)ドライブ409を有している。
[Game console configuration example]
FIG. 20 shows a configuration example of the game machine 400.
The game machine 400 includes an HDMI terminal 401, an HDMI transmission unit 402, an Ethernet interface (Ethernet I / F) 404, and a network terminal 405. The game machine 400 includes an input interface 406, a control pad 407, a drive interface 408, and a DVD / BD (Digital Versatile Disk / Blu-ray Disc) drive 409.

また、このゲーム機400は、内部バス410と、CPU411と、フラッシュROM412と、DRAM413を有している。また、このゲーム機400は、描画処理部414と、VRAM(Video Random Access Memory)415と、音声処理部416と、MPEGデコーダ417を有している。なお、「イーサネット」、「Ethernet」および「Blu−ray Disc」は登録商標である。   The game machine 400 includes an internal bus 410, a CPU 411, a flash ROM 412, and a DRAM 413. In addition, the game machine 400 includes a drawing processing unit 414, a video random access memory (VRAM) 415, an audio processing unit 416, and an MPEG decoder 417. “Ethernet”, “Ethernet” and “Blu-ray Disc” are registered trademarks.

HDMI送信部(HDMIソース)402は、HDMIに準拠した通信により、非圧縮の(ベースバンド)の映像(画像)と音声のデータを、HDMI端子401から送出する。このHDMI送信部401は、図1のAVシステム200のディスクプレーヤ210におけるHDMI送信部212と同様の構成とされている。   The HDMI transmission unit (HDMI source) 402 transmits uncompressed (baseband) video (image) and audio data from the HDMI terminal 401 by communication conforming to HDMI. The HDMI transmission unit 401 has the same configuration as the HDMI transmission unit 212 in the disc player 210 of the AV system 200 in FIG.

CPU411、フラッシュROM412、DRAM413、イーサネットインタフェース404、入力インタフェース406およびドライブインタフェース408は、内部バス410に接続されている。また、描画処理部414、VRAM415、音声処理部416およびMPEGデコーダ417は、内部バス410に接続されている。DVD/BDドライブ409は、ドライブインタフェース408を介して内部バス410に接続されている。DVD/BDドライブ409は、DVD等の記録媒体に記録されている映画等のコンテンツの再生、およびこれらの記録媒体に記録されているゲームソフト情報の再生等を行う。   The CPU 411, flash ROM 412, DRAM 413, Ethernet interface 404, input interface 406 and drive interface 408 are connected to the internal bus 410. The drawing processing unit 414, VRAM 415, audio processing unit 416 and MPEG decoder 417 are connected to the internal bus 410. The DVD / BD drive 409 is connected to the internal bus 410 via the drive interface 408. The DVD / BD drive 409 reproduces content such as a movie recorded on a recording medium such as a DVD, and reproduces game software information recorded on the recording medium.

MPEGデコーダ417は、ゲーム機400が再生機として機能する場合、DVD等の記録媒体から再生された圧縮された映像データ、音声データに対してデコード処理を行って非圧縮の映像データ、音声データを得る。   When the game machine 400 functions as a playback device, the MPEG decoder 417 performs a decoding process on the compressed video data and audio data reproduced from a recording medium such as a DVD, and outputs uncompressed video data and audio data. obtain.

CPU411は、ゲーム機400の各部の動作を制御する。フラッシュROM412は、制御ソフトウェアの格納およびデータの保管を行う。DRAM413は、CPU411のワークエリアを構成する。CPU411は、フラッシュROM412から読み出したソフトウェアやデータをDRAM413上に展開してソフトウェアを起動させ、ゲーム機400の各部を制御する。   The CPU 411 controls the operation of each unit of the game machine 400. The flash ROM 412 stores control software and data. The DRAM 413 constitutes a work area for the CPU 411. The CPU 411 develops software and data read from the flash ROM 412 on the DRAM 413 to activate the software, and controls each unit of the game machine 400.

コントロールパッド407は、ユーザ操作部を構成している。入力インタフェース406は、コントロールパッド407からの操作入力信号を内部バス410に取り込む。描画処理部414は、描画エンジンを備えている。この描画処理部414は、ゲーム機400がゲーム機として機能する場合、ゲームソフト情報に基づき、ユーザのコントロールパッド407からの操作に応じてゲーム画像を動的に作成し、VRAM415に展開する。   The control pad 407 constitutes a user operation unit. The input interface 406 takes an operation input signal from the control pad 407 into the internal bus 410. The drawing processing unit 414 includes a drawing engine. When the game machine 400 functions as a game machine, the drawing processing unit 414 dynamically creates a game image in accordance with a user operation from the control pad 407 based on the game software information, and develops the game image in the VRAM 415.

この描画処理部414は、ゲーム画像データとして、2次元画像を表示するための画像データを生成する他に、立体画像を表示するための立体画像データ(左眼画像データ、右眼画像データ)を生成する。この場合、描画処理部414は、後述するように、テレビ受信機250における左眼画像および右眼画像の表示タイミング情報を用いて、生成する左眼画像データおよび右眼画像データのタイミングを、左眼画像および右眼画像の表示タイミングに合わせる。この描画処理部414におけるタイミング合わせの詳細は後述する。   The drawing processing unit 414 generates, as game image data, image data for displaying a two-dimensional image, as well as stereoscopic image data (left-eye image data, right-eye image data) for displaying a stereoscopic image. Generate. In this case, as will be described later, the rendering processing unit 414 uses the display timing information of the left eye image and the right eye image in the television receiver 250 to determine the timing of the left eye image data and right eye image data to be generated. Match the display timing of the eye image and right eye image. Details of timing adjustment in the drawing processing unit 414 will be described later.

また、この描画処理部414は、立体画像を表示するための立体画像データをHDMIのTMDSチャネルで送信する際に、この立体画像データを伝送方式に応じた状態に加工処理する(図9〜図12参照)。   In addition, when the rendering processing unit 414 transmits stereoscopic image data for displaying a stereoscopic image through the HDMI TMDS channel, the rendering processing unit 414 processes the stereoscopic image data into a state corresponding to the transmission method (FIGS. 9 to 9). 12).

音声処理部416は、ゲーム機400がゲーム機として機能する場合、ゲームソフト情報に基づき、ユーザのコントロールパッド217からの操作に応じて、ゲーム画像に対応したゲーム音声を得るための音声データを生成する。   When the game machine 400 functions as a game machine, the sound processing unit 416 generates sound data for obtaining game sound corresponding to the game image based on the game software information in accordance with the user's operation from the control pad 217. To do.

図20に示すゲーム機400の動作を簡単に説明する。描画処理部414では、ゲームソフト情報に基づき、ユーザのコントロールパッド407からの操作に応じてゲーム画像を表示するための画像データが動的に生成され、VRAM415に展開される。そして、このVRAM415から画像データが読み出されて、HDMI送信部402に供給される。また、音声処理部416で生成された音声データは、HDMI送信部402に供給される。この画像および音声のデータは、HDMIのTMDSチャネルにより、HDMI端子401からHDMIケーブルに送出される。   The operation of the game machine 400 shown in FIG. 20 will be briefly described. In the drawing processing unit 414, image data for displaying a game image is dynamically generated based on the game software information in accordance with a user operation from the control pad 407, and developed in the VRAM 415. Then, image data is read from the VRAM 415 and supplied to the HDMI transmission unit 402. The audio data generated by the audio processing unit 416 is supplied to the HDMI transmission unit 402. The image and audio data is transmitted from the HDMI terminal 401 to the HDMI cable via the HDMI TMDS channel.

ここで、生成すべき画像データが立体画像データ(左眼画像データ、右眼画像データ)である場合、左眼画像データおよび右眼画像データのタイミングは、以下のようにされる。すなわち、左眼画像データおよび右眼画像データのタイミングは、テレビ受信機250の左眼画像および右眼画像の表示タイミング情報に基づいて、左眼画像および右眼画像の表示タイミングに合うようにされる。   Here, when the image data to be generated is stereoscopic image data (left eye image data, right eye image data), the timing of the left eye image data and the right eye image data is as follows. That is, the timing of the left eye image data and the right eye image data is made to match the display timing of the left eye image and the right eye image based on the display timing information of the left eye image and the right eye image of the television receiver 250. The

また、この場合、音声処理部416では、ゲームソフト情報に基づき、ユーザのコントロールパッド407からの操作に応じて、ゲーム画像に対応したゲーム音声を得るための音声データが生成される。この音声データは、HDMI送信部402に供給される。そして、HDMI送信部402に供給されるゲームの画像および音声のデータは、HDMIのTMDSチャネルにより、HDMI端子401からHDMIケーブルに送出される。   In this case, the sound processing unit 416 generates sound data for obtaining game sound corresponding to the game image in accordance with the operation from the control pad 407 by the user based on the game software information. This audio data is supplied to the HDMI transmission unit 402. The game image and audio data supplied to the HDMI transmission unit 402 is transmitted from the HDMI terminal 401 to the HDMI cable via the HDMI TMDS channel.

[ゲーム機におけるタイミング合わせ動作]
図19に示すAVシステム200Aにおいて、描画処理部414は、立体画像データ(左眼画像データ、右眼画像データ)を生成する際、左眼画像データおよび右眼画像データのタイミングを、左眼画像および右眼画像の表示タイミングに合わせる。
[Timing adjustment on game consoles]
In the AV system 200A shown in FIG. 19, when the rendering processing unit 414 generates stereoscopic image data (left-eye image data, right-eye image data), the timing of the left-eye image data and right-eye image data is determined based on the left-eye image data. And the display timing of the right eye image.

この実施の形態において、ゲーム機400は、上述の図1のAVシステム200のディスクプレーヤ210と同様にして、テレビ受信機250より、左眼画像および右眼画像の表示タイミング情報を取得する。すなわち、ゲーム機400(CPU411)は、テレビ受信機250から表示タイミング情報(LR_Display_Timing)が含まれたE−EDID(図13,図14参照)を読み出すことで、表示タイミング情報を取得する。換言すれば、テレビ受信機250は、E−EDIDに表示タイミング情報を含めておくことで、当該情報を、ゲーム機400に供給する。
なお、表示タイミング情報は、上述のようにHDMI経由で自動的に取得するだけでなく、ゲーム機400上で、ユーザに設定(選択)させることによって取得してもよい。
In this embodiment, the game machine 400 acquires display timing information of the left eye image and the right eye image from the television receiver 250 in the same manner as the disc player 210 of the AV system 200 of FIG. That is, the game machine 400 (CPU 411) acquires the display timing information by reading E-EDID (see FIGS. 13 and 14) including the display timing information (LR_Display_Timing) from the television receiver 250. In other words, the television receiver 250 supplies the information to the game machine 400 by including the display timing information in the E-EDID.
Note that the display timing information is not only automatically acquired via HDMI as described above, but may be acquired by allowing the user to set (select) on the game machine 400.

ゲーム機400のCPU411は、上述したようにE−EDIDに含まれている表示タイミング情報、あるいはユーザが設定した表示タイミング情報により、テレビ受信機250における左眼画像および右眼画像の表示タイミングを認識する。CPU411は、この表示タイミング情報に基づいて描画処理部414を制御し、描画処理部414で生成される左眼画像データおよび右眼画像データのタイミングを、左眼画像および右眼画像の表示タイミングに合わせる。   The CPU 411 of the game machine 400 recognizes the display timing of the left eye image and the right eye image in the television receiver 250 based on the display timing information included in the E-EDID as described above or the display timing information set by the user. To do. The CPU 411 controls the drawing processing unit 414 based on the display timing information, and uses the timings of the left eye image data and the right eye image data generated by the drawing processing unit 414 as the display timings of the left eye image and the right eye image. Match.

ここで、左眼画像および右眼画像が同じタイミングで表示される場合、描画処理部414では、例えばフレーム毎に、3D(3次元)空間で左右画像共通のモデリングが行われて、左眼画像データおよび右眼画像データが生成される。これに対して、左眼画像および右眼画像が交互に表示される場合、描画処理部414では、例えば0.5フレーム毎に、3D(3次元)空間で、左画像のモデリングおよび右画像のモデリングが行われて、左眼画像データおよび右眼画像データが生成される。   Here, when the left eye image and the right eye image are displayed at the same timing, the rendering processing unit 414 performs modeling common to the left and right images in a 3D (three-dimensional) space, for example, for each frame, and the left eye image Data and right eye image data are generated. On the other hand, when the left eye image and the right eye image are alternately displayed, the rendering processing unit 414 performs modeling of the left image and right image in a 3D (three-dimensional) space, for example, every 0.5 frame. Modeling is performed to generate left eye image data and right eye image data.

上述したように、図19に示すAVシステム200Aにおいては、ゲーム機400で生成されるゲーム画像としての立体画像を表示するための左眼画像データおよび右眼画像データのタイミングは、テレビ受信機250における左眼画像および右眼画像の表示タイミングに合わせられる。したがって、動きのある画像で画質を改善でき、また、視聴者の疲労感の軽減を図ることができる。   As described above, in the AV system 200A shown in FIG. 19, the timing of the left eye image data and the right eye image data for displaying a stereoscopic image as a game image generated by the game machine 400 is the television receiver 250. In accordance with the display timing of the left eye image and the right eye image. Therefore, the image quality can be improved with a moving image, and the viewer's fatigue can be reduced.

また、図19に示すAVシステム200Aにおいて、ゲーム機400では、テレビ受信機250から左眼画像および右眼画像の表示タイミング情報が取得され、この表示タイミング情報に基づいて、描画処理部414で生成される左眼画像データおよび右眼画像データのタイミングが、テレビ受信機250における左眼画像および右眼画像の表示タイミングに自動的に合わせられる。したがって、ユーザの操作手間が増加することがなく、また、ユーザの誤った操作、設定がないため常に正確なタイミング合わせが可能となる。   In the AV system 200A shown in FIG. 19, in the game machine 400, the display timing information of the left eye image and the right eye image is acquired from the television receiver 250, and is generated by the drawing processing unit 414 based on the display timing information. The timing of the left eye image data and the right eye image data is automatically adjusted to the display timing of the left eye image and the right eye image in the television receiver 250. Therefore, there is no increase in the user's operation time, and accurate timing adjustment is always possible because there is no erroneous operation or setting by the user.

<3.第3の実施の形態>
[AVシステムの構成例]
図21は、第3の実施の形態としてのAVシステム200Bの構成例を示している。このAVシステム200Bは、ソース機器としてのディスクプレーヤ210と、リピータ機器としてのAVアンプ300と、シンク機器としてのテレビ受信機250を有している。ディスクプレーヤ210およびテレビ受信機250は、図1のAVシステム200におけるディスクプレーヤ210およびテレビ受信機250と同様のものである。
<3. Third Embodiment>
[Example of AV system configuration]
FIG. 21 shows a configuration example of an AV system 200B as the third embodiment. The AV system 200B includes a disc player 210 as a source device, an AV amplifier 300 as a repeater device, and a television receiver 250 as a sink device. The disc player 210 and the television receiver 250 are the same as the disc player 210 and the television receiver 250 in the AV system 200 of FIG.

図21に示すAVシステム200Bは、ディスクプレーヤ210とテレビ受信機250との間に、AVアンプ300を接続したものである。ディスクプレーヤ210とAVアンプ300は、HDMIケーブル351を介して接続されている。AVアンプ300には、HDMI受信部(HDMIRTX)302aが接続されたHDMI端子301aが設けられている。HDMIケーブル351の一端はディスクプレーヤ210のHDMI端子211に接続され、このHDMIケーブル351の他端はAVンプ300のHDMI端子301aに接続されている。   An AV system 200 </ b> B shown in FIG. 21 has an AV amplifier 300 connected between a disc player 210 and a television receiver 250. The disc player 210 and the AV amplifier 300 are connected via an HDMI cable 351. The AV amplifier 300 is provided with an HDMI terminal 301a to which an HDMI receiving unit (HDMITX) 302a is connected. One end of the HDMI cable 351 is connected to the HDMI terminal 211 of the disc player 210, and the other end of the HDMI cable 351 is connected to the HDMI terminal 301 a of the AV amplifier 300.

また、AVアンプ300とテレビ受信機250は、HDMIケーブル352を介して接続されている。AVアンプ300には、HDMI送信部(HDMI TX)302bが接続されたHDMI端子301bが設けられている。HDMIケーブル352の一端はAVアンプ300のHDMI端子301bに接続され、このHDMIケーブル352の他端はテレビ受信機250のHDMI端子251に接続されている。   The AV amplifier 300 and the television receiver 250 are connected via an HDMI cable 352. The AV amplifier 300 is provided with an HDMI terminal 301b to which an HDMI transmission unit (HDMI TX) 302b is connected. One end of the HDMI cable 352 is connected to the HDMI terminal 301 b of the AV amplifier 300, and the other end of the HDMI cable 352 is connected to the HDMI terminal 251 of the television receiver 250.

図21に示すAVシステム200Bにおいて、ディスクプレーヤ210からの非圧縮の画像データ(映像信号)は、HDMIケーブル351、AVアンプ300およびHDMIケーブル352を介してテレビ受信機250に送信され、このテレビ受信機250ではディスクプレーヤ210からの画像データによる画像が表示される。また、ディスクプレーヤ210からの非圧縮の音声データ(音声信号)は、HDMIケーブル351、AVアンプ300およびHDMIケーブル352を介してテレビ受信機250に送信され、このテレビ受信機250ではディスクプレーヤ210からの音声データによる音声が出力される。なお、音声に関しては、ユーザの選択操作に応じて、AVアンプ300に外付けされた図示しないスピーカ群から出力される場合もある。   In the AV system 200B shown in FIG. 21, uncompressed image data (video signal) from the disc player 210 is transmitted to the television receiver 250 via the HDMI cable 351, the AV amplifier 300, and the HDMI cable 352, and this television reception is performed. The machine 250 displays an image based on image data from the disc player 210. Uncompressed audio data (audio signal) from the disc player 210 is transmitted to the television receiver 250 via the HDMI cable 351, the AV amplifier 300, and the HDMI cable 352. The sound based on the sound data is output. Note that the audio may be output from a speaker group (not shown) attached to the AV amplifier 300 in accordance with a user's selection operation.

ディスクプレーヤ210からテレビ受信機250に送られる画像データが立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データ(3D画像データ)である場合、テレビ受信機250では、立体画像の表示が行われる。ディスクプレーヤ210からテレビ受信機250への立体画像データの伝送方式は、図1に示すAVシステム200の場合と同様である(図9〜図12参照)。   When the image data sent from the disc player 210 to the television receiver 250 is stereoscopic image data (3D image data) including left-eye image data and right-eye image data for displaying a stereoscopic image, the television receiver 250 A stereoscopic image is displayed. The transmission method of stereoscopic image data from the disc player 210 to the television receiver 250 is the same as that of the AV system 200 shown in FIG. 1 (see FIGS. 9 to 12).

上述したように、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングとしては、同時および交互の2種類がある。また、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングとしては、同時および交互の2種類がある。   As described above, there are two types of shooting timings for the left eye image data and the right eye image data reproduced by the disc player 210: simultaneous and alternating. In addition, there are two types of display timings of the left eye image and the right eye image displayed on the television receiver 250: simultaneous and alternating.

図21に示すAVシステム200Bにおいて、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、AVアンプ300により、タイミング補正が行われる。このタイミング補正では、左眼画像データおよび右眼画像データのタイミングが、左眼画像および右眼画像の表示タイミングに合うようにされる。   In the AV system 200B shown in FIG. 21, the shooting timing of the left eye image data and right eye image data reproduced by the disc player 210 is different from the display timing of the left eye image and right eye image displayed by the television receiver 250. In this case, timing correction is performed by the AV amplifier 300. In this timing correction, the timing of the left eye image data and the right eye image data is matched with the display timing of the left eye image and the right eye image.

ここで、撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。一つは、左眼画像データおよび右眼画像データが交互に撮影して得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。他の一つは、左眼画像データおよび右眼画像データが同じタイミングで撮影して得られたものであり、左眼画像および右眼画像が交互に表示される場合である。   Here, when the photographing timing and the display timing are different, there are the following two methods. One is a case where the left eye image data and the right eye image data are obtained by alternately photographing, and the left eye image and the right eye image are displayed at the same timing. The other one is obtained when the left eye image data and the right eye image data are obtained by photographing at the same timing, and the left eye image and the right eye image are alternately displayed.

[AVアンプの構成例]
図22は、AVアンプ300の構成例を示している。このAVアンプ300は、HDMI端子301a,301bと、HDMI受信部302aと、HDMI送信部302bを有している。また、このAVアンプ300は、映像・グラフィック処理回路305と、音声処理回路307と、音声増幅回路308と、音声出力端子309a〜309fを有している。また、このAVアンプ300は、内部バス312と、CPU313と、フラッシュROM314と、DRAM315を有している。
[Configuration example of AV amplifier]
FIG. 22 shows a configuration example of the AV amplifier 300. The AV amplifier 300 includes HDMI terminals 301a and 301b, an HDMI receiving unit 302a, and an HDMI transmitting unit 302b. The AV amplifier 300 includes a video / graphic processing circuit 305, an audio processing circuit 307, an audio amplification circuit 308, and audio output terminals 309a to 309f. The AV amplifier 300 includes an internal bus 312, a CPU 313, a flash ROM 314, and a DRAM 315.

HDMI受信部302aは、HDMIに準拠した通信により、HDMIケーブル351を介してHDMI端子301aに供給される非圧縮の映像(画像)と音声のデータを受信する。詳細説明は省略するが、このHDMI受信部302aは、図1のAVシステム200のテレビ受信機250におけるHDMI受信部252と同様の構成とされている。   The HDMI receiving unit 302a receives uncompressed video (image) and audio data supplied to the HDMI terminal 301a via the HDMI cable 351 by communication conforming to HDMI. Although detailed description is omitted, the HDMI receiving unit 302a has the same configuration as the HDMI receiving unit 252 in the television receiver 250 of the AV system 200 of FIG.

HDMI送信部302bは、HDMIに準拠した通信により、非圧縮の映像(画像)と音声のデータを、HDMI端子301bからHDMIケーブル352に送出する。詳細説明は省略するが、このHDMI送信部302bは、図1のAVシステム200のディスクプレーヤ210におけるHDMI送信部212と同様の構成とされている。   The HDMI transmission unit 302b sends uncompressed video (image) and audio data from the HDMI terminal 301b to the HDMI cable 352 by communication conforming to HDMI. Although detailed description is omitted, the HDMI transmitting unit 302b has the same configuration as the HDMI transmitting unit 212 in the disc player 210 of the AV system 200 of FIG.

音声処理回路307は、HDMI受信部302aで得られた音声データに対して、例えば5.1chサラウンドを実現するための各チャネルの音声データを生成する処理、所定の音場特性を付与する処理、デジタル信号をアナログ信号に変換する処理等を行う。音声増幅回路308は、音声処理回路307から出力される各チャネルの音声信号を増幅して、音声出力端子309a〜319fに出力する。   The audio processing circuit 307 generates, for example, audio data of each channel for realizing 5.1ch surround with respect to the audio data obtained by the HDMI receiving unit 302a, a process of giving a predetermined sound field characteristic, Performs processing to convert digital signals to analog signals. The audio amplifier circuit 308 amplifies the audio signal of each channel output from the audio processing circuit 307 and outputs the amplified audio signal to the audio output terminals 309a to 319f.

また、音声処理回路307は、さらに、HDMI受信部302aで得られた音声データを、必要な処理を施した後に、HDMI送信部302bに供給する。また、映像・グラフィック処理回路305は、HDMI受信部302aで得られた映像(画像)データを、必要に応じて画像変換処理、グラフィックスデータの重畳処理等の処理を施して、HDMI送信部302bに供給する。   Further, the audio processing circuit 307 further supplies the audio data obtained by the HDMI receiving unit 302a to the HDMI transmitting unit 302b after performing necessary processing. In addition, the video / graphic processing circuit 305 subjects the video (image) data obtained by the HDMI receiving unit 302a to image conversion processing, graphics data superimposition processing, and the like as necessary, and the HDMI transmission unit 302b. To supply.

CPU313は、AVアンプ300の各部の動作を制御する。フラッシュROM314は、制御ソフトウェアの格納およびデータの保管を行う。DRAM315は、CPU313のワークエリアを構成する。CPU313は、フラッシュROM314から読み出したソフトウェアやデータをDRAM315上に展開してソフトウェアを起動させ、AVアンプ300の各部を制御する。CPU313、フラッシュROM314およびDRAM315は、内部バス312に接続されている。   The CPU 313 controls the operation of each unit of the AV amplifier 300. The flash ROM 314 stores control software and data. The DRAM 315 constitutes a work area for the CPU 313. The CPU 313 develops software and data read from the flash ROM 314 on the DRAM 315 to activate the software, and controls each unit of the AV amplifier 300. The CPU 313, flash ROM 314, and DRAM 315 are connected to the internal bus 312.

映像・グラフィック処理回路305は、HDMI受信部302aで受信された立体画像データ(3D画像データ)に対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。また、映像・グラフィック処理回路305は、処理後の立体画像データ(左眼画像データ、右眼画像データ)に対して、伝送方式に応じた状態に加工処理して(図9〜図12参照)、HDMI送信部302bに供給する。   The video / graphic processing circuit 305 performs processing (decoding processing) corresponding to the transmission method on the stereoscopic image data (3D image data) received by the HDMI receiving unit 302a, and thereby performs left-eye image data and right-eye image processing. Generate data. The video / graphic processing circuit 305 processes the processed stereoscopic image data (left-eye image data, right-eye image data) into a state corresponding to the transmission method (see FIGS. 9 to 12). , To the HDMI transmission unit 302b.

また、映像・グラフィック処理回路305は、HDMI受信部302aで受信されて得られた左眼画像データおよび右眼画像データに対して、必要に応じて、タイミング補正を行う。その場合、この映像・グラフィック処理回路305はタイミング補正部を構成する。この映像・グラフィック処理回路305におけるタイミング補正の詳細は後述する。   Further, the video / graphic processing circuit 305 performs timing correction on the left eye image data and the right eye image data obtained by being received by the HDMI receiving unit 302a as necessary. In this case, the video / graphic processing circuit 305 constitutes a timing correction unit. Details of timing correction in the video / graphic processing circuit 305 will be described later.

図22に示すAVアンプ300の動作を簡単に説明する。HDMI受信部302aでは、HDMI端子301aにHDMIケーブル351を介して接続されているディスクプレーヤ210から送信されてくる、映像(画像)データおよび音声データが取得される。この映像データおよび音声データは、それぞれ、映像・グラフィック処理回路305および音声処理回路307を介して、HDMI送信部302bに供給され、HDMI端子301bからHDMIケーブル352を介してテレビ受信機250に送信される。これにより、AVアンプ300は、リピータ機能を発揮する。   The operation of the AV amplifier 300 shown in FIG. 22 will be briefly described. The HDMI receiving unit 302a acquires video (image) data and audio data transmitted from the disc player 210 connected to the HDMI terminal 301a via the HDMI cable 351. The video data and audio data are supplied to the HDMI transmission unit 302b via the video / graphic processing circuit 305 and the audio processing circuit 307, respectively, and transmitted from the HDMI terminal 301b to the television receiver 250 via the HDMI cable 352. The As a result, the AV amplifier 300 exhibits a repeater function.

なお、このAVアンプ300を通じて音声を出力する場合、音声処理回路307では、HDMI受信部302aで得られた音声データに対して、5.1chサラウンドを実現するための各チャネルの音声データを生成する処理、所定の音場特性を付与する処理、デジタル信号をアナログ信号に変換する処理等の必要な処理が施される。そして、各チャネルの音声信号は、音声増幅回路308で増幅された後に音声出力端子319a〜319fに出力される。   When audio is output through the AV amplifier 300, the audio processing circuit 307 generates audio data of each channel for realizing 5.1ch surround with respect to the audio data obtained by the HDMI receiving unit 302a. Necessary processing such as processing, processing for imparting predetermined sound field characteristics, processing for converting a digital signal into an analog signal, and the like are performed. The audio signal of each channel is amplified by the audio amplifier circuit 308 and then output to the audio output terminals 319a to 319f.

「タイミング補正処理」
AVアンプ300の映像・グラフィック処理回路305におけるタイミング補正処理について説明する。
"Timing correction process"
Timing correction processing in the video / graphic processing circuit 305 of the AV amplifier 300 will be described.

この実施の形態において、AVアンプ300は、上述の図1のAVシステム200のテレビ受信機250と同様にして、ディスクプレーヤ210より、左眼画像データおよび右眼画像データの撮影タイミング情報を取得する。すなわち、AVアンプ300は、HDMI受信部302bで受信された立体画像データのブランキング期間に配置された、撮影タイミング情報(LR_Image_Timing)が含まれたAVI InfoFrameパケット(図17参照)を抽出することで、撮影タイミング情報を取得する。換言すれば、ディスクプレーヤ210は、HDMI送信部212から送信すべき立体画像データのブランキング期間に挿入することで、撮影タイミング情報をAVアンプ300に供給する。
なお、撮影タイミング情報は、上述のようにHDMI経由で自動的に取得するだけでなく、AVアンプ300上で、ユーザに設定(選択)させることによって取得してもよい。また、撮影タイミング情報に関しては、上述したように、自動取得やユーザ設定なしに、左眼画像データおよび右眼画像データのタイミングが同じであると見なして動作する構成であってもよい。
In this embodiment, the AV amplifier 300 acquires shooting timing information of left-eye image data and right-eye image data from the disc player 210 in the same manner as the television receiver 250 of the AV system 200 of FIG. . That is, the AV amplifier 300 extracts the AVI InfoFrame packet (see FIG. 17) including the shooting timing information (LR_Image_Timing) arranged in the blanking period of the stereoscopic image data received by the HDMI receiving unit 302b. , To acquire shooting timing information. In other words, the disc player 210 supplies the shooting timing information to the AV amplifier 300 by inserting it in the blanking period of the stereoscopic image data to be transmitted from the HDMI transmission unit 212.
Note that the shooting timing information is not only automatically acquired via HDMI as described above, but may be acquired by allowing the user to set (select) on the AV amplifier 300. Further, as described above, the photographing timing information may be configured to operate by assuming that the timings of the left eye image data and the right eye image data are the same without automatic acquisition or user setting.

この実施の形態において、AVアンプ300は、上述の図1のAVシステム200のディスクプレーヤ210と同様にして、テレビ受信機250より、左眼画像および右眼画像の表示タイミング情報を取得する。すなわち、AVアンプ300(CPU313)は、テレビ受信機250から表示タイミング情報(LR_Display_Timing)が含まれたE−EDID(図13,図14参照)を読み出すことで、表示タイミング情報を取得する。換言すれば、テレビ受信機250は、E−EDIDに表示タイミング情報を含めておくことで、当該情報を、AVアンプ300に供給する。
なお、表示タイミング情報は、上述のようにHDMI経由で自動的に取得するだけでなく、AVアンプ300上で、ユーザに設定(選択)させることによって取得してもよい。
In this embodiment, the AV amplifier 300 acquires display timing information of the left eye image and the right eye image from the television receiver 250 in the same manner as the disc player 210 of the AV system 200 of FIG. In other words, the AV amplifier 300 (CPU 313) reads the E-EDID (see FIGS. 13 and 14) including the display timing information (LR_Display_Timing) from the television receiver 250, thereby acquiring the display timing information. In other words, the television receiver 250 supplies the information to the AV amplifier 300 by including the display timing information in the E-EDID.
Note that the display timing information is not only automatically acquired via HDMI as described above, but may be acquired by setting (selecting) on the AV amplifier 300 by the user.

AVアンプ300のCPU313は、上述したようにE−EDIDに含まれている表示タイミング情報、あるいはユーザが設定した表示タイミング情報により、テレビ受信機250における左眼画像および右眼画像の表示タイミングを認識する。また、AVアンプ300のCPU313は、上述したように AVI InfoFrameパケットに含まれている撮影タイミング情報、あるいはユーザが設定したタイミング情報により、ディスクプレーヤ210から送られている左眼画像データおよび右眼画像データの撮影タイミングを認識する。なお、AVアンプ300のCPU313は、撮影タイミング情報の自動取得やユーザ設定がない場合、左眼画像データおよび右眼画像データのタイミングが同じであると見なす。   The CPU 313 of the AV amplifier 300 recognizes the display timing of the left eye image and the right eye image in the television receiver 250 based on the display timing information included in the E-EDID as described above or the display timing information set by the user. To do. Further, the CPU 313 of the AV amplifier 300, as described above, uses the left eye image data and right eye image sent from the disc player 210 based on the shooting timing information included in the AVI InfoFrame packet or the timing information set by the user. Recognize data capture timing. Note that the CPU 313 of the AV amplifier 300 assumes that the timings of the left eye image data and the right eye image data are the same when there is no automatic acquisition of shooting timing information or user setting.

CPU313は、撮影タイミングと表示タイミングが異なる場合、映像・グラフィック処理回路305で、タイミング補正処理が行われるように制御する。このタイミング補正処理により、ディスクプレーヤ210のBD/DVDドライブ214で再生された左眼画像データおよび右眼画像データのタイミングが、テレビ受信機250における左眼画像および右眼画像の表示タイミングに合うようにされる。   When the shooting timing and the display timing are different, the CPU 313 controls the video / graphic processing circuit 305 to perform the timing correction process. By this timing correction processing, the timing of the left eye image data and the right eye image data reproduced by the BD / DVD drive 214 of the disc player 210 matches the display timing of the left eye image and the right eye image in the television receiver 250. To be.

撮影タイミングと表示タイミングが異なる場合には、以下の2通りがある。第1の場合は、左眼画像データおよび右眼画像データが交互に撮影されて得られたものであり、左眼画像および右眼画像が同じタイミングで表示される場合である。第2の場合は、左眼画像データおよび右眼画像データが同じタイミングで撮影されて得られたものであり、左眼画像および右眼画像が交互に表示される場合である。   When the shooting timing and the display timing are different, there are the following two types. The first case is obtained by alternately capturing left eye image data and right eye image data, and the left eye image and the right eye image are displayed at the same timing. In the second case, the left eye image data and the right eye image data are obtained by being photographed at the same timing, and the left eye image and the right eye image are alternately displayed.

第1の場合に映像・グラフィック処理回路305で行われるタイミング補正処理は、上述の図1に示すAVシステム200におけるディスクプレーヤ210の映像信号処理回路217が第1の場合に行うタイミング補正処理と同様である(図15(a),(b)参照)。この場合、補正後の左眼画像データおよび右眼画像データのタイミングは各フレームで一致し、左眼画像および右眼画像の表示タイミングに合ったものとなる。   The timing correction processing performed in the video / graphic processing circuit 305 in the first case is similar to the timing correction processing performed in the first case by the video signal processing circuit 217 of the disc player 210 in the AV system 200 shown in FIG. (See FIGS. 15A and 15B). In this case, the corrected timings of the left eye image data and the right eye image data are the same in each frame, and match the display timing of the left eye image and the right eye image.

また、第2の場合に映像・グラフィック処理回路305で行われるタイミング補正処理は、上述の図1に示すAVシステム200におけるディスクプレーヤ210の映像信号処理回路217が第2の場合に行うタイミング補正処理と同様である(図16(a),(b)参照)。この場合、補正後の左眼画像データおよび右眼画像データのタイミングは0.5フレーム毎の交互となり、左眼画像および右眼画像の表示タイミングに合ったものとなる。   Further, the timing correction processing performed in the video / graphic processing circuit 305 in the second case is the timing correction processing performed in the second case by the video signal processing circuit 217 of the disc player 210 in the AV system 200 shown in FIG. (See FIGS. 16A and 16B). In this case, the corrected timing of the left eye image data and the right eye image data is alternated every 0.5 frame, and matches the display timing of the left eye image and the right eye image.

上述したように、図21に示すAVシステム200Bにおいては、ディスクプレーヤ210で再生される左眼画像データおよび右眼画像データの撮影タイミングと、テレビ受信機250で表示される左眼画像および右眼画像の表示タイミングが異なる場合には、AVアンプ300でタイミング補正が行われる。そのため、テレビ受信機250で受信される左眼画像データおよび右眼画像データのタイミングは、当該テレビ受信機250における左眼画像および右眼画像の表示タイミングに合ったものとなる。したがって、動きのある画像で画質を改善でき、また、視聴者の疲労感の軽減を図ることができる。   As described above, in the AV system 200B shown in FIG. 21, the shooting timing of the left eye image data and right eye image data reproduced by the disc player 210, and the left eye image and right eye displayed by the television receiver 250 are displayed. When the image display timing is different, the AV amplifier 300 corrects the timing. Therefore, the timing of the left eye image data and the right eye image data received by the television receiver 250 matches the display timing of the left eye image and the right eye image in the television receiver 250. Therefore, the image quality can be improved with a moving image, and the viewer's fatigue can be reduced.

また、図21に示すAVシステム200において、AVアンプ300では、テレビ受信機250から左眼画像および右眼画像の表示タイミング情報が取得され、ディスクプレーヤ210から左眼画像データおよび右眼画像データの撮影タイミング情報が取得される。そして、これらの情報に基づいて、AVアンプ300では、ディスクプレーヤ210からテレビ受信機250に中継する左眼画像データおよび右眼画像データのタイミングが、テレビ受信機250における左眼画像および右眼画像の表示タイミングに自動的に合わせられる。したがって、ユーザの操作手間が増加することがなく、また、ユーザの誤った操作、設定がないため常に正確なタイミング合わせが可能となる。   In the AV system 200 shown in FIG. 21, the AV amplifier 300 obtains the display timing information of the left eye image and the right eye image from the television receiver 250, and the left eye image data and the right eye image data from the disc player 210. Shooting timing information is acquired. Based on these pieces of information, in the AV amplifier 300, the timing of the left eye image data and the right eye image data relayed from the disc player 210 to the television receiver 250 is determined based on the left eye image and the right eye image in the television receiver 250. The display timing is automatically adjusted. Therefore, there is no increase in the user's operation time, and accurate timing adjustment is always possible because there is no erroneous operation or setting by the user.

なお、図21のAVシステム200Bのように、ディスクプレーヤ210とテレビ受信機250との間にAVアンプ300が介在されている場合にあっても、図1のAVシステム200と同様に、ディスクプレーヤ210あるいはテレビ受信機250で、タイミング補正を行うこともできる。その場合、ディスクプレーヤ210は、AVアンプ300を介して、テレビ受信機250から左眼画像および右眼画像の表示タイミング情報を取得する。また、テレビ受信機250は、AVアンプ300を介して、ディスクプレーヤ210からの撮影タイミング情報を取得する。   Even when the AV amplifier 300 is interposed between the disc player 210 and the television receiver 250 as in the AV system 200B of FIG. 21, the disc player is similar to the AV system 200 of FIG. 210 or the television receiver 250 can also perform timing correction. In that case, the disc player 210 acquires the display timing information of the left eye image and the right eye image from the television receiver 250 via the AV amplifier 300. Further, the television receiver 250 acquires shooting timing information from the disc player 210 via the AV amplifier 300.

例えば、図21のAVシステム200Bのような構成で、AVアンプ300と、テレビ受信機250が共にタイミング補正機能を持っている場合が考えられる。この場合、上述したようにAVアンプ300でタイミング補正が行われるとき、AVアンプ300からテレビ受信機250に供給される撮影タイミング情報として、テレビ受信機250における表示タイミング情報をセットしてあげることで、テレビ受信機250側での補正処理を無効にできる。これにより、左眼画像データおよび右眼画像データに対して二重にタイミング補正処理が行われる不都合を防止できる。   For example, in a configuration like the AV system 200B in FIG. 21, a case where both the AV amplifier 300 and the television receiver 250 have a timing correction function can be considered. In this case, when timing correction is performed by the AV amplifier 300 as described above, the display timing information in the television receiver 250 is set as shooting timing information supplied from the AV amplifier 300 to the television receiver 250. The correction process on the television receiver 250 side can be invalidated. Thereby, it is possible to prevent the inconvenience that the timing correction processing is performed twice on the left eye image data and the right eye image data.

<4.変形例>
なお、上述実施の形態は、HDMIの伝送路を用いるものを示している。しかし、この発明は、HDMI以外の非圧縮映像信号の伝送路、例えば、DVI(Digital Visual Interface)、DP(Display Port)インタフェース、ワイヤレス伝送、さらに今後普及すると思われるギガビットEthernet・光ファイバーの伝送路を用いるものにも同様に適用できる。
<4. Modification>
In the above-described embodiment, an HDMI transmission path is used. However, the present invention provides a transmission path for uncompressed video signals other than HDMI, for example, a DVI (Digital Visual Interface), DP (Display Port) interface, wireless transmission, and a Gigabit Ethernet / optical fiber transmission path that is expected to become more popular in the future. The same applies to what is used.

例えば、DVIの場合、上述したHDMIと同様に、映像信号の対応画像フォーマット(解像度、フレームレート等)を、受信装置が保有するE−EDIDと呼ばれる領域に記憶する規格が定義されている。したがって、このDVIの場合、上述したHDMIの場合と同様にして、送信装置は、DDC(Display Data Channel)を用いて受信装置のE−EDIDから左眼画像および右眼画像の表示タイミング情報を取得できる。そのため、送信装置は、受信装置側の左眼画像および右眼画像の表示タイミングに合うように左眼画像データおよび右眼画像データの補正あるいは生成を行うことができる。   For example, in the case of DVI, a standard for storing a corresponding image format (resolution, frame rate, etc.) of a video signal in an area called E-EDID possessed by the receiving apparatus is defined, as in the above-described HDMI. Therefore, in the case of this DVI, as in the case of the HDMI described above, the transmission device acquires display timing information of the left eye image and the right eye image from the E-EDID of the reception device using DDC (Display Data Channel). it can. Therefore, the transmission device can correct or generate the left eye image data and the right eye image data so as to match the display timing of the left eye image and the right eye image on the reception device side.

また、上述実施の形態においては、ディスクプレーヤ210、ゲーム機400、AVアンプ300は、テレビ受信機250からE−EDIDを読み出すことで、左眼画像および右眼画像の表示タイミング情報を得るものを示した。また、上述実施の形態においては、テレビ受信機250、AVアンプ300は、受信された立体画像データの垂直ブランキング期間に配置されたAVI InfoFrameパケットを抽出することで、左眼画像データおよび右眼画像データの撮影タイミング情報を得るものを示した。   In the above-described embodiment, the disc player 210, the game machine 400, and the AV amplifier 300 obtain the display timing information of the left eye image and the right eye image by reading the E-EDID from the television receiver 250. Indicated. In the above-described embodiment, the television receiver 250 and the AV amplifier 300 extract the left-eye image data and the right-eye by extracting the AVI InfoFrame packet arranged in the vertical blanking period of the received stereoscopic image data. The thing which obtains photographing timing information of image data was shown.

しかし、各機器がこれらの情報を取得する手段は、これに限定されない。例えば、HDMIケーブルの制御データラインであるCECラインを用いて通信を行うことで、これらの情報を取得してもよい。また、例えば、上述したHDMIケーブルの所定ライン(例えば、リザーブライン、HPDライン)を用いて構成される双方向通信路を用いた通信により、各機器はこれらの情報を取得してもよい。   However, the means by which each device acquires these information is not limited to this. For example, such information may be acquired by performing communication using a CEC line which is a control data line of the HDMI cable. In addition, for example, each device may acquire such information by communication using a bidirectional communication path configured using a predetermined line (for example, a reserved line or an HPD line) of the HDMI cable described above.

また、上述実施の形態において、送信装置がディスクプレーヤ210、ゲーム機400であり、中継装置がAVアンプ300であり、受信装置がテレビ受信機250である例を示した。しかし、送信装置、中継装置、受信装置は、これらに限定されるものではない。例えば、送信装置としては、ディスクプレーヤ210、ゲーム機400以外に、DVDレコーダ、セットトップボックス、その他のAVソースであってもよい。また、受信装置としては、テレビ受信機250の他に、プロジェクタ、PC用モニタ、その他のディスプレイであってもよい。   In the above-described embodiment, an example is shown in which the transmission device is the disc player 210 and the game machine 400, the relay device is the AV amplifier 300, and the reception device is the television receiver 250. However, the transmission device, the relay device, and the reception device are not limited to these. For example, the transmission device may be a DVD recorder, a set-top box, or other AV sources in addition to the disc player 210 and the game machine 400. In addition to the television receiver 250, the receiving device may be a projector, a PC monitor, or other display.

この発明は、ユーザの操作または設定の手間を増やすことなく、動きのある画像での画質改善および視聴者の疲労感の軽減を図ることができ、送信装置から立体画像データを送信し、受信装置側で左眼画像、右眼画像を表示して視聴者に立体画像を提供するAVシステムに適用できる。   The present invention can improve the image quality of a moving image and reduce the viewer's fatigue without increasing the user's operation or setting effort, and transmits stereoscopic image data from a transmission device. The present invention can be applied to an AV system that displays a left eye image and a right eye image on the side and provides a viewer with a stereoscopic image.

200,200A,100B・・・AVシステム、210・・・ディスクプレーヤ、211・・・HDMI端子、212・・・HDMI送信部、214・・・BD/DVDドライブ、217・・・映像処理回路、221・・・CPU、250・・・テレビ受信機、251・・・HDMI端子、252・・・HDMI受信部、254・・・3D信号処理部、262・・・表示パネル、271・・・CPU、300・・・AVアンプ、301a,301b・・・HDMI端子、302a・・・HDMI受信部、302b・・・HDMI送信部、305・・・映像・グラフィック処理回路、313・・・CPU、350,351,352・・・HDMIケーブル、400・・・ゲーム機、401・・・HDMI端子、402・・・HDMI送信部、497・・・コントロールパッド、409・・・DVD/BDドライブ、411・・・CPU、414・・・描画処理部、415・・・VRAM   200, 200A, 100B ... AV system, 210 ... disc player, 211 ... HDMI terminal, 212 ... HDMI transmitter, 214 ... BD / DVD drive, 217 ... video processing circuit, 221 ... CPU, 250 ... TV receiver, 251 ... HDMI terminal, 252 ... HDMI receiver, 254 ... 3D signal processor, 262 ... display panel, 271 ... CPU , 300... AV amplifier, 301a, 301b... HDMI terminal, 302a... HDMI receiving unit, 302b... HDMI transmitting unit, 305... Video / graphic processing circuit, 313. 351, 352 ... HDMI cable, 400 ... game machine, 401 ... HDMI terminal, 402 ... HDMI transmitter, 97 ... control pad, 409 ... DVD / BD drive, 411 ··· CPU, 414 ··· drawing processing section, 415 ... VRAM

この発明は、受信装置および情報処理方法に関し、特に、立体画像を表示するための左眼画像データおよび右岸画像データを取り扱う受信装置に関する。
This invention relates to a receiving apparatus and an information processing method, in particular, it relates to a receiving apparatus that handle the left-eye image data and right bank image data for displaying a stereoscopic image.

この発明の概念は、
立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データを処理して上記左眼画像データおよび上記右眼画像データを得るデータ処理部と、
左眼画像および右眼画像の表示タイミングに合うように、上記データ処理部で得られた上記左眼画像データおよび上記右眼画像データのタイミングを制御する制御部と、
上記タイミングが制御された左眼画像データによる左眼画像および上記タイミングが制御された右眼画像データによる右眼画像を表示する表示部を備える
受信装置にある。
The concept of this invention is
A data processing unit that processes stereoscopic image data including left-eye image data and right-eye image data for displaying a stereoscopic image to obtain the left-eye image data and the right-eye image data;
To fit the display timing of the left-eye image and a right-eye image, and a control unit for controlling the timing of the left eye image data and the right-eye image data obtained by the data processing unit,
In the receiving apparatus comprising a display unit for displaying the right-eye image by the right eye image data left-eye image and the timing is controlled by the left-eye image data in which the timing is controlled.

この発明においては、データ処理部により、立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データが処理されて左眼画像データおよび右眼画像データが得られる。制御部により、左眼画像および右眼画像の表示タイミングに合うように、データ処理部で得られた左眼画像データおよび右眼画像データのタイミングが制御される。そして、表示部により、このタイミング調整された左眼画像データおよび右眼画像データによる画像が表示される。これにより、立体画像を良好に表示することが可能となる。

In the present invention, the data processing unit processes the stereoscopic image data including the left eye image data and the right eye image data for displaying the stereoscopic image, thereby obtaining the left eye image data and the right eye image data. The control unit, to fit the display timing of the left-eye image and a right-eye image, the timing of the left eye image data and right eye image data obtained by the data processing unit is controlled. Then, the display unit displays an image based on the left-eye image data and the right-eye image data adjusted in timing. Thereby, it becomes possible to display a stereoscopic image satisfactorily.

Claims (1)

立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データを処理して上記左眼画像データおよび上記右眼画像データを得るデータ処理部と、
上記立体画像の表示タイミングに合うように、上記データ処理部で得られた上記左眼画像データおよび上記右眼画像データのタイミングを制御する制御部と、
上記制御部でタイミングが制御された左眼画像データおよび上記右眼画像データによる画像を表示する表示部を備える
受信装置。
A data processing unit that processes stereoscopic image data including left-eye image data and right-eye image data for displaying a stereoscopic image to obtain the left-eye image data and the right-eye image data;
A control unit for controlling the timing of the left eye image data and the right eye image data obtained by the data processing unit so as to match the display timing of the stereoscopic image;
A receiving apparatus comprising: a display unit configured to display an image based on left-eye image data whose timing is controlled by the control unit and the right-eye image data.
JP2013263257A 2013-12-20 2013-12-20 Receiving device and information processing method Pending JP2014131272A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013263257A JP2014131272A (en) 2013-12-20 2013-12-20 Receiving device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013263257A JP2014131272A (en) 2013-12-20 2013-12-20 Receiving device and information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009112291A Division JP5448558B2 (en) 2009-05-01 2009-05-01 Transmission apparatus, stereoscopic image data transmission method, reception apparatus, stereoscopic image data reception method, relay apparatus, and stereoscopic image data relay method

Publications (1)

Publication Number Publication Date
JP2014131272A true JP2014131272A (en) 2014-07-10

Family

ID=51409249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013263257A Pending JP2014131272A (en) 2013-12-20 2013-12-20 Receiving device and information processing method

Country Status (1)

Country Link
JP (1) JP2014131272A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01171389A (en) * 1987-12-25 1989-07-06 Sharp Corp Image reproducing device
JPH0865713A (en) * 1994-08-23 1996-03-08 Sanyo Electric Co Ltd Stereoscopic image signal conversion device
JP2008252731A (en) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd Image display apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01171389A (en) * 1987-12-25 1989-07-06 Sharp Corp Image reproducing device
JPH0865713A (en) * 1994-08-23 1996-03-08 Sanyo Electric Co Ltd Stereoscopic image signal conversion device
JP2008252731A (en) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd Image display apparatus

Similar Documents

Publication Publication Date Title
JP5448558B2 (en) Transmission apparatus, stereoscopic image data transmission method, reception apparatus, stereoscopic image data reception method, relay apparatus, and stereoscopic image data relay method
JP5469911B2 (en) Transmitting apparatus and stereoscopic image data transmitting method
TWI432014B (en) Transmission device, three-dimensional image data transmission method, receiving device and three-dimensional image data receiving method
JP5477499B2 (en) Transmission device and stereoscopic image data transmission method
JP5577476B1 (en) Stereo image data transmitting method and stereo image data transmitting apparatus
JP5577477B1 (en) Stereo image data receiving method and stereo image data receiving apparatus
JP5583297B2 (en) Stereo image data receiving method and stereo image data receiving apparatus
JP5538604B2 (en) Stereo image data transmitting method and stereo image data transmitting apparatus
JP2014131272A (en) Receiving device and information processing method
JP6304417B2 (en) Receiving method and receiving apparatus
JP6098678B2 (en) Transmission method and transmission apparatus
JP5790859B2 (en) Transmission / reception system
JP5621944B2 (en) Transmitting apparatus and transmitting method
JP5583866B2 (en) Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, and stereoscopic image data receiving method
JP2014225901A (en) Method and device for transmitting stereoscopic image data

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150707