WO2010131313A1 - ビデオデータのパケット伝送方法 - Google Patents

ビデオデータのパケット伝送方法 Download PDF

Info

Publication number
WO2010131313A1
WO2010131313A1 PCT/JP2009/007120 JP2009007120W WO2010131313A1 WO 2010131313 A1 WO2010131313 A1 WO 2010131313A1 JP 2009007120 W JP2009007120 W JP 2009007120W WO 2010131313 A1 WO2010131313 A1 WO 2010131313A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
video frame
data
packet
frame data
Prior art date
Application number
PCT/JP2009/007120
Other languages
English (en)
French (fr)
Inventor
竜田明浩
船引誠
大植裕司
三谷浩
西尾歳朗
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2011513135A priority Critical patent/JP5460702B2/ja
Priority to US13/318,930 priority patent/US8953017B2/en
Publication of WO2010131313A1 publication Critical patent/WO2010131313A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals

Definitions

  • the present invention relates to a packet transmission method of video data, a source device that transmits the video data, a sink device that receives the video data, and a communication system including the source device and the sink device, and more particularly, video frame data for the right eye.
  • 3D also referred to as 3D or stereoscopic
  • video data packet transmission method including first and second video frame data such as left-eye video frame data, a source device for transmitting the video data
  • the present invention relates to a sink device that receives video data, and a communication system including the source device and the sink device.
  • Wireless HD Wireless HD
  • AV Audio and Visual
  • Wireless HD is for viewing high-definition video data stored in a source device such as a digital video recorder, set-top box, or personal computer on a sink device such as a high-definition TV without connecting the source device to the sink device.
  • a source device such as a digital video recorder, set-top box, or personal computer on a sink device such as a high-definition TV without connecting the source device to the sink device.
  • bidirectional control signals are included, control is performed so that the TV and the digital video recorder are linked, and a home theater is configured using a plurality of AV devices to control these AV devices in a centralized manner. Protocols for these controls can be defined.
  • DTCP Digital Transmission Content Protection
  • FIG. 18 is a diagram showing a frame format of video data in wireless HD according to the prior art.
  • each packet of video data includes an HRP (High Rate Physical Layer) preamble 11, an HRP header 12, a MAC (Medium Access Control) header 13, an HCS (Header Check Sequence) 14, a packet body 15, and the like.
  • beam tracking 16 the packet body 15 can be divided into a maximum of seven subpackets, but in FIG. 18, it is divided into four subpackets.
  • the MAC header 13 includes a 24-byte video header 17, and the video header 17 has a size of 5 bytes and is provided with four video controls provided corresponding to each subpacket included in the packet body.
  • each video control 17a, 17b, 17c, 17d has a 4-bit partition index 20, a 1-bit interlace field indication (also referred to as an interlace indication) 21, a 3-bit video frame number 22, and 16 It consists of a bit H position 23P and a 16 bit V position 24P.
  • the HRP preamble 11 is a synchronization pattern portion positioned at the head of the packet in order to demodulate the HRP signal that is a burst signal
  • the HRP header 12 is a header portion that stores control information of the physical layer (Physical Layer) of the wireless HD
  • the MAC header 13 is a header portion for storing control information of the MAC layer of the wireless HD
  • the HCS 14 is an error detection portion for storing data for error detection of the HRP header 12 and the MAC header 13
  • the packet body Reference numeral 15 denotes a payload portion packed with video data (divided into a maximum of 7 subpackets).
  • a beam tracking 16 stores a control data portion for storing control data for causing the beam direction of the HRP signal to follow between devices. It is.
  • the video header 17 is a header portion that stores control information regarding the video data of the packet body 15.
  • each video control 17a, 17b, 17c, 17d is a header part for storing format information regarding each video data stored in the four subpackets of the packet body 15, and the video playback time 17e is a video of the packet body 15.
  • the partition index 20 stores division information of pixel data related to video data stored in each subpacket of the packet body 15, and the interlace field indication 21 stores interlace data related to video data of each subpacket stored in the packet body 15.
  • Data for identifying the top and bottom of the signal is stored
  • the video frame number 22 stores the video frame number of the pixel data relating to the video data of each subpacket stored in the packet body 15, and the H position 23 P is stored in the packet body 15.
  • the horizontal position information of the first pixel relating to the video data of each stored subpacket is stored
  • the V position 24P is the first pixel related to the video data stored in each subpacket of the packet body 15.
  • a packet transmission method for video data configured as described above will be described.
  • the source device and the sink device are wirelessly connected to each other using a 60 GHz band LRP (Low Rate PHY) signal.
  • Uncompressed video data is time-division-transmitted from the source device to the sink device using an HRP (High Rate PHY) signal capable of high-speed transmission of 3 Gbps or higher.
  • HRP High Rate PHY
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23P, and the V position 24P in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows.
  • the video data is sequentially transmitted.
  • a numerical value starting from 0x represents a hexadecimal number.
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23P, and the V position 24P in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. The video data is sequentially transmitted.
  • the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
  • Patent Documents 1 to 3 and Non-Patent Document 1 disclose wireless HD packet formats according to the related art.
  • the video header 17 is composed of video controls 17a, 17b, 17c and 17d and a video playback time 17e, and each video control 17a, 17b, 17c and 17d is a partition. It is composed of an index 20, an interlaced field indication 21, a video frame number 22, an H position 23P, and a V position 24P, and the video data is two-dimensional (2D or flat) including one frame data. It was assumed that it was content data (hereinafter referred to as two-dimensional data). Therefore, when the video data is three-dimensional content data (hereinafter referred to as three-dimensional data) including first and second video frame data such as right-eye video frame data and left-eye video frame data, the left-eye.
  • the video frame data for video and the video frame data for right eye cannot be identified by the source device and the sink device, and there is a problem that the video data cannot be transmitted.
  • each of Patent Documents 4 to 7 discloses a transmission method of the above three-dimensional data, but does not disclose a specific configuration of a packet when transmitting the three-dimensional data in a packet.
  • the object of the present invention is to solve the above-mentioned problems, and packet transmission of video data capable of transmitting three-dimensional video data including first and second video frame data such as right-eye video frame data and left-eye video frame data.
  • a method a source device that transmits the video data, a sink device that receives the video data, and a communication system including the source device and the sink device.
  • the source device is: In a source device that transmits video data to a sink device using a video frame of a predetermined packet format,
  • the video data is three-dimensional data including first video frame data and second video frame data, for each video frame, the first video frame data and the second video frame data In the horizontal display period of the first pixel of the synthesized video frame data stored in the packet in the header of each packet for transmitting the synthesized video frame data.
  • the composite video frame data is divided into a plurality of packets according to the packet format so that vertical position information within a period is inserted as information for identifying the first and second video frame data.
  • First packet processing means for generating a packet
  • Transmission means for transmitting the plurality of generated packets to the sink device.
  • the first packet processing unit transmits the first video frame data having a predetermined number of lines in the first half of the vertical display period in the horizontal display period of the video frame, and then performs the vertical display.
  • the synthesized video frame data is configured to transmit the second video frame data having the predetermined number of lines in the latter half of the period.
  • the first packet processing means may be configured to transmit a first video frame data having a predetermined number of lines between a transmission period of the first video frame data having a predetermined number of lines and a transmission period of the second video frame data having the predetermined number of lines. Is provided with a predetermined blanking period.
  • format information indicating whether the video data is the three-dimensional data or the two-dimensional data including the third video frame data is inserted into a predetermined control command. And a control means for transmitting to the sink device.
  • a video format identification code for identifying a plurality of video formats of the two-dimensional data including the third video frame data, and a 3D structure for identifying the plurality of video structures of the three-dimensional data
  • First storage means for storing in advance a first video format identification code table including: Referring to the first video format identification code table, a video format identification code for identifying the video format of the video data and a 3D structure for identifying the video structure of the video data are stored in the sink device. And a control means for transmitting.
  • the source device further includes (a) a plurality of video formats of the two-dimensional data including the third video frame data and (b) a video format identification code for identifying the plurality of video formats of the three-dimensional data.
  • First storage means for storing a first video format identification code table in advance;
  • Control means for transmitting a video format identification code for identifying the video format of the video data to the sink device with reference to the first video format identification code table.
  • a sink device is a sink device that receives the video data from a source device that transmits video data using a video frame of a predetermined packet format.
  • the source device is When the video data is three-dimensional data including first video frame data and second video frame data, for each video frame, the first video frame data and the second video frame data In the horizontal display period of the first pixel of the synthesized video frame data stored in the packet in the header of each packet for transmitting the synthesized video frame data.
  • the composite video frame data is divided into a plurality of packets according to the packet format so that vertical position information within a period is inserted as information for identifying the first and second video frame data.
  • First packet processing means for generating a packet; Transmission means for transmitting the generated plurality of packets to the sink device, The sink device The transmitted packet is received, and the first video frame data and the second video frame data are identified based on horizontal position information and vertical position information inserted into the received plurality of packets.
  • the second packet processing means is provided.
  • the second packet processing means may determine whether the video data is the three-dimensional data or the two-dimensional data including the third video frame data from the source device.
  • the format information is received, and the received plurality of packets are decoded according to the received format information.
  • a video format identification code for identifying a plurality of video formats of two-dimensional data including third video frame data, and a 3D structure for identifying a plurality of video structures of the three-dimensional data
  • a second storage means for storing a second video format identification code table including The second packet processing means receives a video format identification code for identifying the video format of the video data and a 3D structure for identifying the video structure of the video data from the source device, and Referring to the second video format identification code table based on the received video format identification code and 3D structure, the video format and the video structure are identified, and the received plurality of packets are identified as the identified video format. And decoding according to the video structure.
  • a plurality of video formats of two-dimensional data including third video frame data and (b) a video format identification code for identifying a plurality of video formats of the three-dimensional data.
  • a second storage means for storing in advance a second video format identification code table, The second packet processing means receives a video format identification code for identifying a video format of the video data from the source device, and the second video format based on the received video format identification code
  • a video format is identified with reference to an identification code table, and the received plurality of packets are decoded according to the identified video format.
  • a communication system includes the source device and the sink device.
  • a video data packet transmission method for transmitting video data from a source device to a sink device using a video frame of a predetermined packet format.
  • the video data is three-dimensional data including first video frame data and second video frame data by the source device, the first video frame data and the second video data for each video frame.
  • the video frame data is synthesized with the synthesized video frame data, and the header of each packet for transmitting the synthesized video frame data is displayed horizontally in the horizontal display period of the first pixel of the synthesized video frame data stored in the packet.
  • the synthesized video frame data is divided into a plurality of packets according to the packet format so that the position information and the vertical position information within the vertical display period are inserted as information for identifying the first and second video frame data.
  • a first packet processing step for generating the plurality of packets A transmission step of transmitting the plurality of generated packets to the sink device by the source device;
  • the sink device receives the transmitted packet, and based on the horizontal position information and the vertical position information inserted in the received plurality of packets, the first video frame data and the second video frame And a second packet processing step for identifying the data.
  • the first packet processing step may include, in the horizontal display period of the video frame, after transmitting the first video frame data having a predetermined number of lines in the first half of the vertical display period. And the step of configuring the composite video frame data to transmit the second video frame data of the predetermined number of lines in the second half of the vertical display period.
  • the first packet processing step includes the transmission period of the first video frame data having the predetermined number of lines and the transmission of the second video frame data having the predetermined number of lines. Including a step of providing a predetermined blanking period with the period.
  • the source information includes format information indicating whether the video data is the three-dimensional data or the two-dimensional data including the third video frame data.
  • the second packet processing step includes a step of receiving the format information from the source device and decoding the plurality of received packets according to the received format information.
  • a video format identification code for identifying a plurality of video formats of the two-dimensional data including the third video frame data by the source device, and a plurality of the three-dimensional data Pre-store in a first storage means a first video format identification code table including a 3D structure for identifying a video structure; Pre-stores a second video format identification code table including the video format identification code and the 3D structure in a second storage means by the sink device; A video format identification code for identifying the video format of the video data and a 3D structure for identifying the video structure of the video data by the source device referring to the first video format identification code table Further including a control step of transmitting to the sink device, The second packet processing step receives a video format identification code for identifying a video format of the video data and a 3D structure for identifying a video structure of the video data from the source device, and Referring to the second video format identification code table based on the received video format identification code and 3D structure, the video format and the video structure are
  • the source device identifies (a) a plurality of video formats of two-dimensional data including third video frame data and (b) a plurality of video formats of three-dimensional data.
  • Storing in advance in a first storage means a first video format identification code table including a video format identification code for Pre-stores a second video format identification code table including the video format identification code in the second storage means by the sink device;
  • the second packet processing step receives a video format identification code for identifying a video format of the video data from the source device, and the second video format is based on the received video format identification code.
  • the method includes identifying a video format with reference to an identification code table, and decoding the received plurality of packets according to the identified video format.
  • the source data includes three-dimensional data in which the video data includes the first video frame data and the second video frame data.
  • the first video frame data and the second video frame data are synthesized into synthesized video frame data, and a header of each packet for transmitting the synthesized video frame data
  • the horizontal position information in the horizontal display period and the vertical position information in the vertical display period of the first pixel of the composite video frame data stored in the packet are used to identify the first and second video frame data.
  • the synthesized video frame data is inserted into the packet format so as to be inserted as information.
  • video data of three-dimensional data can be transmitted in real time.
  • FIG. 1 is a block diagram showing a configuration of a wireless communication system that transmits video data using a video data packet transmission method according to a first embodiment of the present invention.
  • FIG. FIG. 2 is a data arrangement diagram based on a relationship between a horizontal synchronizing signal and a vertical synchronizing signal of composite video frame data 3 transmitted in the wireless communication system of FIG. 1. It is a figure which shows the frame format of the video data used in the radio
  • FIG. 2 is a sequence diagram showing AV content data transmission processing executed by the wireless communication system of FIG. 1. It is a data arrangement
  • FIG. 1 is a block diagram showing a configuration of a wireless communication system that transmits video data using the video data packet transmission method according to the first embodiment of the present invention.
  • 2 is a data arrangement diagram based on the relationship between the horizontal synchronization signal and the vertical synchronization signal of the composite video frame data 3 transmitted in the wireless communication system of FIG. 1, and FIG. It is a figure which shows the frame format of the video data used in a system.
  • FIG. 4 is a sequence diagram showing AV content data transmission processing executed by the wireless communication system of FIG.
  • the configurations of the source device 110 and the sink device 120 in FIG. 1 and the AV content data transmission process in FIG. 4 are applied to the following first to fourth, tenth, and eleventh embodiments.
  • the wireless communication system transmits video data from the source device 110 to the sink device 120 using a video frame of a predetermined packet format.
  • the source device 110 performs the left-eye video frame data 1 and the right-eye for each video frame.
  • Video frame data 2 is synthesized with synthesized video frame data 3, and the header of each packet for transmitting the synthesized video frame data 3 is displayed horizontally in the header of the synthesized video frame data 3 stored in the packet.
  • the synthesized video frame data is inserted so that the horizontal position information in the period Th and the vertical position information in the vertical display period Tv are inserted as data for identifying the left-eye video frame data 1 and the right-eye video frame data 2.
  • 3 is divided into a plurality of packets according to the packet format and
  • a packet processing circuit 113 for generating a packet is characterized by comprising a packet radio transmitting and receiving circuit 114 for transmitting a plurality of packets the generated sync device 120.
  • the sink device 120 receives the transmitted packet, and based on the horizontal position information and the vertical position information inserted in the received plurality of packets, the left-eye video frame data 1 and the right-eye video frame data 2 is provided with a packet processing circuit 123 for discriminating between the first and second packets.
  • the source device 110 includes a video code or video format identification code (hereinafter referred to as VIC) for identifying a plurality of video formats of two-dimensional data and a plurality of video formats of three-dimensional data.
  • VIC video code or video format identification code
  • a memory 115 that stores a VIC table 115t in advance and a controller 111 that refers to the VIC table 115t and transmits a VIC for identifying the video format of the video data to the sink device 120 are provided. .
  • the sink device 120 further includes a memory 127 that stores a VIC table 127t including the VIC in advance, and the packet processing circuit 123 receives a VIC for identifying the video format of the video data from the source device 110.
  • the video format is identified by referring to the VIC table 127t based on the received VIC, and the received plurality of packets are decoded according to the identified video format.
  • the packet processing circuit 113 transmits the left-eye video frame data 1 for 1080 lines in the first half of the vertical display period Tv, and then for 1080 lines in the second half of the vertical display period Tv.
  • the composite video frame data 3 is configured to transmit the right-eye video frame data 2.
  • a source device 110 that functions as a source device for AV content data includes a video / audio reproduction device 112, a packet processing circuit 113, a packet wireless transmission / reception circuit 114 including an antenna 116, a memory 115 that stores a VIC table 115t in advance, These devices and a controller 111 that controls the operation of the circuits 112 to 115 are configured.
  • the video / audio reproduction device 112 is, for example, a DVD player, and reproduces video data and audio data from an external storage device or a recording medium such as MD or DVD and outputs the data to the packet processing circuit 113.
  • the packet processing circuit 113 converts the input video data and audio data into a digital signal in a predetermined packet format and outputs it to the packet radio transmission / reception circuit 114 as will be described in detail later.
  • the packet radio transmission / reception circuit 114 digitally modulates the carrier wave signal according to the input digital signal, and wirelessly transmits the modulated radio signal to the packet radio transmission / reception circuit 122 of the sink device 120 via the antenna 116.
  • a wireless signal wirelessly transmitted from the sink device 120 is received by the packet wireless transmission / reception circuit 114 via the antenna 116.
  • the packet wireless transmission / reception circuit 114 demodulates the received wireless signal into a baseband signal, and then a packet processing circuit. It outputs to 113.
  • the packet processing circuit 113 extracts only a predetermined control command from the input baseband signal by a predetermined packet separation process, and then outputs it to the controller 111.
  • the sink device 120 includes a packet radio transmission / reception circuit 122 including an antenna 128, a packet processing circuit 123, a video / audio processing circuit 124, a speaker 125, a display 126 that displays two-dimensional data and three-dimensional data,
  • the memory 127 stores EDID (Extended Display Identification Data) data 127d and a VIC table 127t in advance, and a controller 121 that controls the operation of these circuits 122-124, 127.
  • the controller 121 includes a bandwidth management unit 121b that manages the use bandwidth of the wireless network and the timing control of signal transmission.
  • the packet radio transmission / reception circuit 122 demodulates the radio signal received via the antenna 128 into a baseband signal, and then outputs the demodulated signal to the packet processing circuit 123.
  • the packet processing circuit 123 decodes a received packet by extracting only video data, audio data, and a predetermined control command from the input digital signal by a predetermined packet separation process, and processes the video data and the audio data as video / audio processing While outputting to the circuit 124, the control command is output to the controller 121.
  • the video / audio processing circuit 124 performs predetermined signal processing and D / A conversion processing on input audio data, and then outputs the audio data to the speaker 125 to output audio, while the input video data is subjected to predetermined signal processing. After executing the D / A conversion process, the data is output to the display 126 and displayed.
  • VIC tables 115t and 127t include VICs for identifying a plurality of video formats of two-dimensional data and a plurality of video formats of three-dimensional data, respectively.
  • the video format represents the output specification of video data in the sink device 120.
  • VICs 1 to 37 and 128 to 136 are assigned to respective video formats of two-dimensional data
  • VICs 64 to 72 are assigned to respective video formats of three-dimensional data.
  • the EDID data 127d includes VICs of video data that can be displayed using the display 126 among the VICs included in the VIC table 127t, product information and manufacturer name of the display 126, and video encoding methods (for example, RGB, YC B C R 4: 4: 4 or YC B C R 4: 2: 2) and audio output specifications such as audio output sampling (hereinafter referred to as audio format).
  • VICs of video data that can be displayed using the display 126 among the VICs included in the VIC table 127t, product information and manufacturer name of the display 126, and video encoding methods (for example, RGB, YC B C R 4: 4: 4 or YC B C R 4: 2: 2) and audio output specifications such as audio output sampling (hereinafter referred to as audio format).
  • the controller 111 when transmitting the three-dimensional data to the sink device 120, the controller 111 selects the VIC of the three-dimensional data with reference to the VIC table 115t, and sends it to the packet processing circuit 113 for each video frame. Then, control is performed so that the left-eye video frame data 1 and the right-eye video frame data 2 included in the three-dimensional data are combined with the combined video frame data 3 based on the selected VIC.
  • FIG. 2 shows a data arrangement based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 3 when the VIC is 66.
  • the horizontal display period Th is a period between the horizontal synchronization period of the horizontal synchronization signal and the next horizontal synchronization period
  • the vertical display period Tv is the interval between the vertical synchronization period of the vertical synchronization signal and the next vertical synchronization period. It is a period between.
  • the number of horizontal effective pixels of the left-eye video frame data 1 and the right-eye video frame data 2 is 1920 pixels, respectively, and the number of vertical effective pixels is 1080 pixels.
  • the number of horizontal pixels of the composite video frame data 3 is 1920 pixels, and the number of vertical pixels is 2160 pixels.
  • the vertical synchronization frequency of the left-eye video frame data 1 and the right-eye video frame data 2 is 60 Hz.
  • the packet processing circuit 113 synthesizes the left-eye video frame data 1 and the right-eye video frame data 2 into the synthesized video frame data 3.
  • the composite video frame data 3 is transmitted in the horizontal display period Th after the left-eye video frame data 1 for 1080 lines is transmitted in the first half of the vertical display period Tv, and then the right eye for 1080 lines in the second half of the vertical display period Tv.
  • Video frame data 2 is configured to be transmitted.
  • the packet processing circuit 113 when transmitting three-dimensional data, the packet processing circuit 113 generates composite video frame data 3 and divides it into a plurality of packets according to the packet format of FIG. 3, while transmitting two-dimensional data. Generates video frame data of the two-dimensional data, and divides the generated video frame data into a plurality of packets according to the packet format of FIG.
  • an HRP preamble 11 is a synchronization pattern portion that stores a synchronization pattern located at the head of a packet in order to demodulate an HRP signal that is a burst signal
  • an HRP header 12 is control information of the physical layer of the wireless HD.
  • the MAC header 13 is a header portion for storing control information of the MAC layer of the wireless HD
  • the HCS 14 is an error detection portion for storing data for error detection of the HRP header 12 and the MAC header 13.
  • the packet body 15 is a payload portion in which video data which is the synthesized video frame data 3 or the video frame data of the two-dimensional data is packed, and the beam tracking 16 is for tracking the beam direction of the HRP signal between devices. It is a control data part for storing control data.
  • the packet body 15 is divided into a maximum of seven subpackets, in the present embodiment, the packet body 15 is divided into four subpackets 18a to 18d.
  • the MAC header 13 includes a video header 17, and the video header 17 is a header portion, and includes video controls 17a to 17d that store format information about each video data included in the subpackets 18a to 18d.
  • the video control 17a includes a partition index 20, an interlace field indication 21, a video frame number 22, an H position 23, and a V position 24.
  • the partition index 20 stores division information of the video data (pixel data) stored in the subpacket 18a
  • the interlace field indication 21 stores the interlace signal related to the video data stored in the subpacket 18a.
  • the data for identifying the top and bottom of the video frame number 22 is stored, and the video frame number 22 stores the video frame number of the video data stored in the subpacket 18a.
  • each of the video controls 17b, 17c, and 17d includes a partition index 20, an interlace field indication 21, a video frame number 22, an H position 23, and a V position 24, similarly to the video control 17a.
  • the H position 23 and the V position 24 are the H positions 23P and V of the packet format of the video data according to the prior art of FIG.
  • the horizontal position data in the horizontal display period Th and the vertical position data in the vertical display period Tv of the first pixel of the video frame data stored in the subpacket 18a are stored.
  • the synthesized video frame data 3 is stored in the subpacket 18a, the H position 23 and the V position 24 are within the horizontal display period Th of the first pixel of the synthesized video frame data 3 stored in the subpacket 18a.
  • the horizontal position data and the vertical position data within the vertical display period Tv are stored as data for identifying the left-eye video frame data 1 and the right-eye video frame data, respectively.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is The value is set from 0x0000 to 0x0437 (0 to 1079).
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919)
  • the value stored in the V position 24 is set from 0x0438 to 0x086F. It is set to a value from (1080 to 2159).
  • the values stored in the video frame numbers 22 corresponding to the left-eye video frame data 1 and the right-eye video frame data 2 in the same frame are set to be the same.
  • the source device 110 wirelessly transmits a connect request (CONNECT_REQUEST) command requesting a wireless connection to the sink device 120, and in response to this, the sink device 120 transmits a connect response (CONNECT_RESPONSE) command to the source device 110.
  • CONNECT_REQUEST a connect request
  • CONNECT_RESPONSE a connect response
  • a reservation sequence is executed.
  • the source device 110 wirelessly transmits a bandwidth request command to the sink device 120 in order to request and reserve a bandwidth for transmitting AV content data.
  • the bandwidth management unit 121b of the sink device 120 allocates a reservation period necessary for transmitting AV content data from the source device 110 to the sink device 120, and a period designation command including information of the allocated reservation period Is wirelessly transmitted to the source device 110.
  • the controller 111 of the source device 110 refers to the VIC table 115t and selects the VIC that is the format information of the three-dimensional data to be transmitted. Then, the controller 111 synthesizes the video frame data 2 for the right eye and the video frame data 1 for the left eye into the synthesized video frame data 3 according to the video format of the selected VIC for each video frame with respect to the packet processing circuit 113. Control to do. In step S2, the controller 111 of the source device 110 controls the packet processing circuit 113 to divide the synthesized video frame data 3 into a plurality of packets according to the packet format of FIG.
  • the packet processing circuit 113 stores the respective subpackets in the respective H positions 23 and V positions 24 of the respective video controls 17a, 17b, 17c, and 17d of the respective subpackets 18a, 18b, 18c, and 18d.
  • the horizontal position data in the horizontal display period Th and the vertical position data in the vertical display period Tv of the first pixel of the synthesized video frame data 3 thus identified are discriminated between the right-eye video frame data 2 and the left-eye video frame 1.
  • the composite video frame data 3 is divided into a plurality of packets according to the packet format of FIG.
  • the source device 110 inserts the selected VIC into the stream start notification (STREAM_START_NOTIFY) command and notifies the sink device 120, and the sink device 120 in the reserved period in which the AV content data including a plurality of generated packets is allocated. 120 is transmitted wirelessly.
  • the sink device 120 refers to the VIC table 127t based on the notified VIC, identifies the video format, and identifies the received video data packet to the packet processing circuit 123.
  • the packet processing circuit 123 performs the right-eye video frame data based on the horizontal position data stored in the H position 23 and the vertical position data stored in the V position 24 of each packet of the received video data. 2 and left-eye video frame data 1 are identified.
  • step S2 the source device 110 divides the audio data into a plurality of audio packets according to the audio packet format compliant with the wireless HD, and wirelessly transmits the audio data to the sink device 120 together with the plurality of packets of the composite video frame data 3. .
  • the packet processing circuit 113 when the video data is two-dimensional data, the packet processing circuit 113 generates video frame data according to the video format of the selected VIC for each video frame, and generates the generated video frame data.
  • a plurality of packets are generated by dividing into a plurality of packets according to the packet format of FIG.
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
  • the left-eye video frame data 1 of the first frame is packet-transmitted in the first to 54th packets
  • the right-eye video frame data 2 of the first frame is packet-transmitted in the 55th to 108th packets.
  • the composite video frame data 3 is packet-transmitted using 108 packets for each video frame.
  • each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
  • the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
  • the video frame number 22 for storing the frame number
  • the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
  • a V position 24 for storing the location information.
  • the horizontal position data and the vertical display within the horizontal display period Th of the synthesized video frame data 3 obtained by synthesizing the left-eye video frame data 1 and the right-eye video frame data 2 are displayed.
  • the vertical position data in the period Tv is stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 1 and the right-eye frame data 2, respectively. Therefore, it becomes possible to identify the left-eye video frame data 1 and the right-eye video frame data 2 to be transmitted in packets, and AV content data including two-dimensional video data, AV content including three-dimensional video data, Can be efficiently transmitted in the same packet format.
  • FIG. 5 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 43 according to the second embodiment of the present invention.
  • This embodiment is different from the first embodiment only in the method for generating the composite video frame data 43.
  • the other operations are the same as those in the first embodiment, and the description of the operation is omitted here.
  • FIG. 5 shows the format of the composite video frame data 43 when the VIC is 69.
  • the left-eye video frame data 41 and the right-eye video frame data 42 each have a horizontal effective pixel number of 1920 pixels and a vertical effective pixel number of 540 pixels.
  • the number of horizontal pixels of the composite video frame data 43 is 3840 pixels, and the number of vertical pixels is 540 pixels.
  • the vertical synchronization frequency of the left-eye video frame data 41 and the right-eye video frame data 42 is 60 Hz.
  • the packet processing circuit 113 synthesizes the left-eye video frame data 41 and the right-eye video frame data 42 into the synthesized video frame data 43.
  • the composite video frame data 43 is transmitted in the vertical display period Tv after the 1920-pixel left-eye video frame data 41 is transmitted in the first half of the horizontal display period Th and then in the second half of the horizontal display period Th.
  • the video frame data 42 is configured to be transmitted.
  • the source device 110 divides the synthesized video frame data 43 into a plurality of packets according to the packet format of FIG.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is from 0x0000.
  • the value is set to 0x021B (0 to 539).
  • the value stored in the H position 23 is set to a value from 0x0780 to 0x0EFF (1920 to 3839), and the value stored in the V position 24 is 0x0000 to 0x021B.
  • a value from (0 to 539) is set.
  • the values stored in the video frame numbers 22 corresponding to the left-eye video frame data 41 and the right-eye video frame data 42 in the same frame are set to be the same.
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
  • the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
  • the composite video frame data 43 is transmitted by using 54 packets for each video frame.
  • each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
  • the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
  • the video frame number 22 for storing the frame number
  • the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
  • a V position 24 for storing the location information.
  • the horizontal position data and the vertical display period within the horizontal display period Th of the synthesized video frame data 43 obtained by synthesizing the left-eye video frame data 41 and the right-eye video frame data 42 are stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 41 and the right-eye frame data 42, respectively. Therefore, it is possible to identify the left-eye video frame data 41 and the right-eye video frame data 42 to be transmitted in packets, and AV content data including two-dimensional video data and AV content including three-dimensional video data can be obtained. It is possible to transmit efficiently with the same packet format.
  • FIG. 6 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 55 according to the third embodiment of the present invention. This embodiment is different from the first embodiment only in the method for generating the composite video frame data 55. The other operations are the same as those in the first embodiment, and the description of the operation is omitted here.
  • FIG. 6 shows the format of the composite video frame data 55 when the VIC is 64.
  • the horizontal effective pixel numbers of the left-eye top field video frame data 51, the right-eye top field video frame data 52, the left-eye bottom field video frame data 53, and the right-eye bottom field video frame data 54 are 1920 pixels, respectively.
  • the number of vertical effective pixels is 540 pixels.
  • the composite video frame data 55 has a horizontal pixel number of 1920 pixels and a vertical pixel number of 2160 pixels.
  • the vertical synchronization frequency of the left-eye top field video frame data 51, the right-eye top field video frame data 52, the left-eye bottom field video frame data 53, and the right-eye bottom field video frame data 54 is 30 Hz.
  • the packet processing circuit 113 combines the left-eye top field video frame data 51, the right-eye top field video frame data 52, the left-eye bottom field video frame data 53, and the right-eye bottom field video frame data 54 with synthesized video frame data.
  • the composite video frame data 55 is transmitted with the left-eye top field video frame data 51 for 540 lines in the first quarter of the vertical display period Tv, and the second four minutes.
  • the right-eye top field video frame data 52 for 540 lines is transmitted in the first period
  • the left-eye bottom field video frame data 53 for 540 lines is transmitted in the third quarter period.
  • 540 lines of right-eye bottom field video frame data 54 are configured to be transmitted in a period of one half.
  • the source device 110 divides the synthesized video frame data 55 into a plurality of packets according to the packet format of FIG.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is It is set to a value from 0x0000 to 0x021B (0 to 539).
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is 0x021C. To 0x0437 (540 to 1079).
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is 0x0438. To 0x0653 (1080 to 1619). Furthermore, when the right-eye bottom field video frame data 54 is transmitted, the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is It is set to a value from 0x0654 to 0x086F (1620 to 2159).
  • Each value stored in 22 is set to be the same.
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
  • the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
  • the left-eye top field video frame data 51 of the first frame is transmitted in the first to 27th packets
  • the right-eye top field video frame data of the first frame is transmitted in the 28th to 54th packets.
  • 52 is packet-transmitted
  • the left-eye bottom field video frame data 53 of the first frame is transmitted in the 55th to 81st packets
  • the right-eye bottom field video of the first frame is transmitted in the 82nd to 108th packets.
  • Frame data 54 is packet-transmitted
  • composite video frame data 55 is packet-transmitted using 108 packets for each video frame.
  • each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
  • the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
  • the video frame number 22 for storing the frame number
  • the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
  • a V position 24 for storing the location information.
  • the left-eye top field video frame data 51, the right-eye top field video frame data 52, the left-eye bottom field video frame data 53, and the right-eye bottom field video frame data 54 are displayed.
  • the frame data 52, the left eye bottom field video frame data 53, and the right eye bottom field video frame data 54 are stored in the H position 23 and the V position 24, respectively, as data for identifying the frame data 52, the left eye bottom field video frame data 53, and the right eye bottom field video frame data 54.
  • AV content data including two-dimensional video data and AV content including three-dimensional video data can be efficiently transmitted in the same packet format.
  • FIG. 7 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 63 according to the fourth embodiment of the present invention. This embodiment is different from the first embodiment only in the method of generating the composite video frame data 63. The other operations are the same as those in the first embodiment, and the description of the operation is omitted here.
  • FIG. 7 shows the format of the composite video frame data 43 when the VIC is 71.
  • the left-eye video frame data 61 and the right-eye video frame data 62 each have a horizontal effective pixel number of 960 pixels and a vertical effective pixel number of 540 pixels.
  • the composite video frame data 63 has a horizontal pixel number of 1920 pixels and a vertical pixel number of 540 pixels.
  • the vertical synchronization frequency 64 of the left-eye video frame data 61 and the right-eye video frame data 62 is 60 Hz.
  • the packet processing circuit 113 synthesizes the left-eye video frame data 61 and the right-eye video frame data 62 into the synthesized video frame data 63.
  • the composite video frame data 63 is transmitted in the vertical display period Tv after the left-eye video frame data 41 for 960 pixels is transmitted in the first half of the horizontal display period Th and then the right eye for 960 pixels in the second half of the horizontal display period Th.
  • the video frame data 42 is configured to be transmitted.
  • the source device 110 divides the synthesized video frame data 63 into a plurality of packets according to the packet format of FIG.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x03BF (0 to 959), and the value stored in the V position 24 is from 0x0000.
  • the value is set to 0x021B (0 to 539).
  • the value stored in the H position 23 is set to a value from 0x03C0 to 0x07FF (960 to 1919), and the value stored in the V position 24 is 0x0000 to 0x021B.
  • a value from (0 to 539) is set.
  • the values stored in the video frame numbers 22 corresponding to the left-eye video frame data 61 and the right-eye video frame data 62 in the same frame are set to be the same.
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
  • the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
  • the composite video frame data 63 is packet-transmitted using 27 packets for each video frame.
  • each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
  • the header includes a partition index 20 for storing division information of pixel data stored in the packet, data for identifying the top and bottom of the interlace signal, an interlace field indication 21 for corners, and pixel data stored in the packet.
  • a V position 24 for storing the location information.
  • the vertical position data in Tv is stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 61 and the right-eye video frame data 62, respectively. For this reason, it becomes possible to identify the left-eye video frame data 61 and the right-eye video frame data 62 to be packet-transmitted, and AV content data including two-dimensional video data and AV content including three-dimensional video data are obtained. It is possible to transmit efficiently with the same packet format.
  • FIG. 8 is a sequence diagram showing AV content data transmission processing according to the fifth embodiment of the present invention
  • FIG. 9 shows the horizontal synchronization signal of the composite video frame data 203 according to the fifth embodiment of the present invention. It is a data arrangement
  • This embodiment differs from the first embodiment in the following points.
  • the source device 110 stores in advance in the memory 115 a VIC table 115t including a VIC for identifying a plurality of video formats of 2D data and a 3D structure for identifying a video structure of 3D data.
  • the sink device 120 stores in the memory 127 in advance in a VIC table 127t including a VIC for identifying a plurality of video formats of two-dimensional data and a 3D structure for identifying a video structure of three-dimensional data.
  • the source device 110 notifies the sink device 120 of the VIC and 3D structure of the video data to be transmitted, and the sink device 120 refers to the VIC table 127t based on the notified VIC and 3D structure, Identify the video structure and decode the transmitted video data packet according to the identified video format and 3D structure.
  • a blanking period 209 is provided between the transmission period of the left-eye video frame data 201 and the transmission period of the right-eye video frame data 202. Only differences from the first embodiment will be described below.
  • VICs 1 to 37 and 128 to 136 are assigned to respective video formats of two-dimensional data.
  • the 3D structure is a code representing a transmission format which is a video structure of three-dimensional data, and includes left-eye video frame data, right-eye video frame data, left-eye top field video frame data, and right-eye data included in the three-dimensional data.
  • the transmission order and transmission timing of each data such as top field video frame data, left eye bottom field video frame data, and right eye bottom field video frame data are identified.
  • the memory 115 stores a VIC table 115t including a VIC and a 3D structure in advance
  • the memory 127 stores a VIC table 127t including a VIC and a 3D structure in advance.
  • each process up to the bandwidth reservation sequence is executed in the same manner as each process up to the bandwidth reservation sequence in the AV content data transfer process according to the first embodiment of FIG.
  • the controller 111 of the source device 110 refers to the VIC table 115t and selects the VIC and 3D structure of the three-dimensional data to be transmitted. Then, the controller 111 performs the packet processing circuit 113.
  • step S2A the controller 111 of the source device 110 controls the packet processing circuit 113 to divide the synthesized video frame data 203 into a plurality of packets according to the packet format of FIG.
  • the packet processing circuit 113 stores the respective subpackets in the respective H positions 23 and V positions 24 of the respective video controls 17a, 17b, 17c, and 17d of the respective subpackets 18a, 18b, 18c, and 18d.
  • the composite video frame data 203 is divided into a plurality of packets according to the packet format of FIG. 3 so as to be stored as data.
  • the source device 110 wirelessly transmits a stream start notification (STREAM_START_NOTIFY) command to the sink device 120.
  • the stream start notification message includes the VIC and 3D structure of video data to be transmitted.
  • the source device 110 wirelessly transmits the generated plurality of packets to the sink device 120 during the allocated reservation period.
  • the sink device 120 identifies the video format and the video structure with reference to the VIC table 127t based on the notified VIC and 3D structure, and the packet of the transmitted video data is identified to the packet processing circuit 123. Control to decode according to video format and video structure.
  • the packet processing circuit 123 performs the right-eye video frame data based on the horizontal position data stored in the H position 23 and the vertical position data stored in the V position 24 of each packet of the received video data. 202 and the left-eye video frame data 201 are identified.
  • the source device 110 wirelessly transmits two-dimensional data and audio data to the sink device 120, as in the first embodiment.
  • FIG. 9 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 203 according to the fifth embodiment of the present invention.
  • FIG. 9 shows a format of the synthesized video frame data 203 when the VIC is 32 and the 3D structure represents frame packing.
  • the left-eye video frame data 201 and the right-eye video frame data 202 each have a horizontal effective pixel number of 1920 pixels and a vertical effective pixel number of 1080 pixels.
  • the number of horizontal pixels of the composite video frame data 203 is 1920 pixels, and the number of vertical pixels is 2205 pixels.
  • the vertical synchronization frequency of the left-eye video frame data 1 and the right-eye video frame data 2 is 23.976 Hz.
  • the packet processing circuit 113 synthesizes the left-eye video frame data 201 and the right-eye video frame data 202 into the synthesized video frame data 203.
  • the composite video frame data 203 is transmitted in the first half of the vertical display period Tv in the horizontal display period Th after the left-eye video frame data 201 for 1080 lines is transmitted, and then the right eye for 1080 lines in the second half of the vertical display period Tv.
  • the video frame data 202 is configured to be transmitted. Further, a blanking period 209 is provided between the transmission period of the left-eye video frame data 201 and the transmission period of the right-eye video frame data 202.
  • the source device 110 divides the synthesized video frame data 203 into a plurality of packets according to the packet format of FIG.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is from 0x0000.
  • the value is set to 0x0437 (0 to 1079).
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919)
  • the value stored in the V position 24 is set from 0x0465 to 0x089C.
  • a value from (1125 to 2204) is set.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is set from 0x0438 to 0x0464 (1080). To 1124).
  • the values stored in the video frame numbers 22 corresponding to the left-eye video frame data 201, the right-eye video frame data 202, and the blanking period 209 in the same frame are set to be the same.
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
  • the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
  • the left-eye video frame data 201 of the first frame is packet-transmitted in the first to 54th packets
  • the blanking period 209 is packet-transmitted in the 55th to 57th packets
  • the video frame data 202 for the right eye of the first frame is packet-transmitted.
  • the composite video frame data 203 is packet-transmitted using 110 packets and one sub-bucket for each video frame. Is done.
  • each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
  • the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
  • the video frame number 22 for storing the frame number
  • the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
  • a V position 24 for storing the location information.
  • the horizontal position data and the vertical display within the horizontal display period Th of the combined video frame data 203 obtained by combining the left-eye video frame data 201 and the right-eye video frame data 202 are displayed.
  • the vertical position data within the period Tv is stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 201 and the right-eye video frame data 202, respectively. For this reason, it becomes possible to identify the left-eye video frame data 201 and the right-eye video frame data 202 to be transmitted in packets, and AV content data including two-dimensional video data, AV content including three-dimensional video data, Can be efficiently transmitted in the same packet format.
  • FIG. 10 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 143 according to the second embodiment of the present invention. This embodiment is different from the fifth embodiment only in the method of generating the composite video frame data 143. Others are the same as those in the fifth embodiment, and thus the description of the operation is omitted here.
  • FIG. 10 shows the format of the composite video frame data 143 when the VIC is 16 and the 3D structure represents side-by-side (full).
  • the horizontal effective pixel number of the left-eye video frame data 141 and the right-eye video frame data 142 is 1920 pixels, respectively, and the vertical effective pixel number is 1080 pixels.
  • the number of horizontal pixels of the composite video frame data 143 is 3840 pixels, and the number of vertical pixels is 1080 pixels.
  • the vertical synchronization frequency of the left-eye video frame data 141 and the right-eye video frame data 142 is 60 Hz.
  • the packet processing circuit 113 synthesizes the left-eye video frame data 141 and the right-eye video frame data 142 into the synthesized video frame data 143.
  • the composite video frame data 143 is transmitted as 1920-pixel left-eye video frame data 141 in the first half of the horizontal display period Th, and then in the second half of the horizontal display period Th.
  • the video frame data 142 is configured to be transmitted.
  • the source device 110 divides the synthesized video frame data 143 into a plurality of packets according to the packet format of FIG.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is from 0x0000.
  • the value is set to 0x0438 (0 to 1079).
  • the value stored in the H position 23 is set to a value from 0x0780 to 0x0EFF (1920 to 3839), and the value stored in the V position 24 is 0x0000 to 0x0438. It is set to a value from (0 to 1079).
  • the values stored in the video frame numbers 22 corresponding to the left-eye video frame data 141 and the right-eye video frame data 142 in the same frame are set to be the same.
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
  • Sub-packets 18a to 10d of the 864th packet are Sub-packets 18a to 10d of the 864th packet.
  • the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
  • the composite video frame data 143 is packet-transmitted using 108 packets for each video frame.
  • each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
  • the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
  • the video frame number 22 for storing the frame number
  • the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
  • a V position 24 for storing the location information.
  • the vertical position data in Tv is stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 141 and the right-eye frame data 142, respectively. For this reason, it becomes possible to identify the left-eye video frame data 141 and the right-eye video frame data 142 to be transmitted in packets, and AV content data including two-dimensional video data and AV content including three-dimensional video data are obtained. It is possible to transmit efficiently with the same packet format.
  • FIG. 11 is a data layout diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the synthesized video frame data 155 and the synthesized video frame data 156 according to the seventh embodiment of the present invention.
  • This embodiment is different from the fifth embodiment only in the method of generating the synthesized video frame data 155 and the synthesized video frame data 156. Others are the same as those in the fifth embodiment, and thus the description of the operation is omitted here.
  • FIG. 11 shows the formats of the synthesized video frame data 155 and the synthesized video frame data 156 when the VIC is 5 and the 3D structure represents frame packing.
  • the horizontal effective pixel numbers of the left-eye top field video frame data 151, the right-eye top field video frame data 152, the left-eye bottom field video frame data 153, and the right-eye bottom field video frame data 154 are 1920 pixels, respectively.
  • the number of vertical effective pixels is 540 pixels.
  • the number of horizontal pixels of the synthesized video frame data 155 and the synthesized video frame data 156 is 1920 pixels
  • the number of vertical pixels is 1080 pixels.
  • the vertical synchronization frequency of the left-eye top field video frame data 151, the right-eye top field video frame data 152, the left-eye bottom field video frame data 153, and the right-eye bottom field video frame data 154 is 30 Hz.
  • the packet processing circuit 113 synthesizes the left-eye top field video frame data 151 and the right-eye top field video frame data 152 into the synthesized video frame data 155, and the left-eye bottom field video frame data 153 and the right-eye bottom field video frame data 155. 154 and the synthesized video frame data 156.
  • the composite video frame data 155 is transmitted in the first period of the vertical display period Tv after the left-eye top field video frame data 151 for 540 lines is transmitted, and then in the second period of the vertical display period Tv.
  • the right-eye top field video frame data 152 for 540 lines is transmitted in the period.
  • the composite video frame data 156 is transmitted for 540 lines in the fourth period of the vertical display period Tv after the transmission of the left-eye bottom field video frame data 153 for 540 lines in the third period of the vertical display period Tv.
  • the right-eye bottom field video frame data 154 is transmitted.
  • a blanking period 157 is provided between the transmission period of the left-eye top field video frame data 151 and the transmission period of the right-eye top field video frame data 152, and the right-eye top field video frame data 152 and the left-eye bottom field
  • a blanking period 158 is provided between the video frame data 153 and a blanking period 159 is provided between the transmission period of the left-eye bottom field video frame data 153 and the transmission period of the right-eye bottom field video frame data 154.
  • the first to fourth periods and the blanking periods 157 to 159 described above are the first period, the blanking period 157, and the second period from the start timing to the end timing of each vertical display period Tv.
  • the blanking period 158, the third period, the blanking period 159, and the fourth period are arranged in this order.
  • the source device 110 divides the synthesized video frame data 155 and the synthesized video frame data 156 into a plurality of packets according to the packet format of FIG.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is It is set to a value from 0x0000 to 0x021B (0 to 539).
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is 0x0233.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is 0x0465. To 0x0680 (1125 to 1664). Furthermore, when the right-eye bottom field video frame data 154 is transmitted, the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is It is set to a value from 0x0698 to 0x08B3 (1688 to 2227).
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is It is set to a value from 0x021C to 0x0232 (540 to 562). Further, when transmitting the blanking period 158 in the second period, the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is The value is set from 0x044F to 0x0464 (1103 to 1124).
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is It is set to a value from 0x0681 to 0x0697 (1665 to 1687).
  • Each value stored in 22 is set to be the same.
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
  • Sub-packets 18a to 10d of the 56th packet are Sub-packets 18a to 10d of the 56th packet.
  • Sub-packets 18a to 10d of the 892nd packet are Sub-packets 18a to 10d of the 892nd packet.
  • the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
  • the left-eye top field video frame data 151 of the first frame is transmitted in the first to 27th packets, and the blanking period 157 is transmitted in the 28th to 29th packets.
  • the right frame top field video frame data 152 of the first frame is transmitted, and in the 56th to 57th packets, the second period and the blanking period 158 are transmitted.
  • the left-eye bottom field video frame data 153 of the second frame is transmitted, and in the 84th to 85th packets, the third period, the blanking period 159 is transmitted, and the 85th to 112th.
  • Bottom field for the right eye of the second frame in the packet of Deo frame data 154 is transmitted packets, and 111 pieces of packets per video frame and two sub-packets using a synthesized video frame data 155 and synthesized video frame data 156 is transmitted packets.
  • each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
  • the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
  • the video frame number 22 for storing the frame number
  • the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
  • a V position 24 for storing the location information.
  • synthesized video frame data 155 obtained by synthesizing the left-eye top field video frame data 151 and the right-eye top field video frame data 152, and the left-eye bottom field video frame data
  • the horizontal position data in the horizontal display period Th and the vertical position data in the vertical display period Tv of the combined video frame data 156 obtained by combining the 153 and the right-eye bottom field video frame data 154 are converted into the left-eye top field video.
  • AV content data including two-dimensional video data and AV content including three-dimensional video data can be efficiently transmitted in the same packet format.
  • FIG. 12 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 163 according to the eighth embodiment of the present invention.
  • This embodiment is different from the fifth embodiment only in the method of generating the composite video frame data 163. Others are the same as those in the fifth embodiment, and thus the description of the operation is omitted here.
  • FIG. 12 shows the format of the composite video frame data 43 when the VIC is 16 and the 3D structure is side-by-side (half).
  • the left-eye video frame data 161 and the right-eye video frame data 162 each have a horizontal effective pixel number of 960 pixels and a vertical effective pixel number of 1080 pixels.
  • the composite video frame data 163 has a horizontal pixel number of 1920 pixels and a vertical pixel number of 1080 pixels.
  • the vertical synchronization frequency 64 of the left-eye video frame data 161 and the right-eye video frame data 162 is 60 Hz.
  • the packet processing circuit 113 synthesizes the left-eye video frame data 161 and the right-eye video frame data 162 into the synthesized video frame data 163.
  • the source device 110 divides the synthesized video frame data 163 into a plurality of packets according to the packet format of FIG.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x03BF (0 to 959), and the value stored in the V position 24 is from 0x0000.
  • the value is set to 0x0438 (0 to 1079).
  • the value stored in the H position 23 is set to a value from 0x03C0 to 0x077F (960 to 1919), and the value stored in the V position 24 is 0x0000 to 0x0438. It is set to a value from (0 to 1079).
  • the values stored in the video frame numbers 22 corresponding to the left-eye video frame data 161 and the right-eye video frame data 162 in the same frame are set to be the same.
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
  • the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
  • the composite video frame data 3 is packet-transmitted using 54 packets for each video frame.
  • each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
  • the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
  • the video frame number 22 for storing the frame number
  • the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
  • a V position 24 for storing the location information.
  • the horizontal position data and the vertical display period within the horizontal display period Th of the combined video frame data 163 obtained by combining the left-eye video frame data 161 and the right-eye video frame data 162 are combined.
  • the vertical position data in Tv is stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 161 and the right-eye video frame data 162, respectively. For this reason, it becomes possible to identify the left-eye video frame data 161 and the right-eye video frame data 162 to be packet-transmitted, and AV content data including two-dimensional video data and AV content including three-dimensional video data can be obtained. It is possible to transmit efficiently with the same packet format.
  • FIG. 13 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the synthesized video frame data 95 and the synthesized video frame data 96 according to the ninth embodiment of the present invention.
  • This embodiment is different from the fifth embodiment only in the method of generating the synthesized video frame data 95 and the synthesized video frame data 96.
  • the other operations are the same as those in the first embodiment, and the description of the operation is omitted here.
  • FIG. 13 shows a format of the synthesized video frame data 95 and the synthesized video frame data 96 when the VIC is 5 and the 3D structure represents frame alternative.
  • vertical display periods Tv1 and Tv2 are periods between three vertical synchronization periods in which vertical synchronization signals are continuous.
  • the horizontal effective pixel numbers of the left-eye top field video frame data 91, the right-eye top field video frame data 92, the left-eye bottom field video frame data 93, and the right-eye bottom field video frame data 94 are 1920 pixels, respectively.
  • the number of vertical effective pixels is 540 pixels.
  • the number of horizontal pixels of the composite video frame data 95 and the composite video frame data 96 is 1920 pixels, respectively, and the number of vertical pixels is 1080 pixels.
  • the vertical synchronization frequencies of the left-eye top field video frame data 91, the right-eye top field video frame data 92, the left-eye bottom field video frame data 93, and the right-eye bottom field video frame data 94 are 60 Hz, respectively.
  • the packet processing circuit 113 synthesizes the left-eye top field video frame data 91 and the right-eye top field video frame data 92 into the synthesized video frame data 95.
  • the composite video frame data 95 is transmitted for 540 lines in the second half of the vertical display period Tv2 after the left-eye top field video frame data 91 for 540 lines is transmitted in the first half of the vertical display period Tv1.
  • Right-eye top field video frame data 92 is transmitted.
  • a blanking period 97 is provided between the transmission period of the left-eye top field video frame data 91 and the transmission period of the right-eye top field video frame data 92. Further, the packet processing circuit 113 synthesizes the left-eye bottom field video frame data 93 and the right-eye bottom field video frame data 94 into the synthesized video frame data 96. At this time, in the horizontal display period Th, the composite video frame data 96 is transmitted for 540 lines in the second half of the vertical display period Tv2 after the left-eye bottom field video frame data 93 for 540 lines is transmitted in the first half of the vertical display period Tv2. The right-eye bottom field video frame data 94 is transmitted. Further, a blanking period 99 is provided between the transmission period of the left-eye bottom field video frame data 93 and the transmission period of the right-eye bottom field video frame data 94.
  • the source device 110 divides the synthesized video frame data 95 and the synthesized video frame data 96 into a plurality of packets according to the packet format of FIG.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919).
  • the value stored in the V position 24 is set to a value from 0x0000 to 0x021B (0 to 539).
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919).
  • the value stored in the position 24 is set to a value from 0x0233 to 0x044E (563 to 1102).
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919).
  • the value stored in the V position 24 is set to a value from 0x021C to 0x0232 (540 to 562).
  • the values stored in the video frame numbers 22 corresponding to the left-eye top field video frame data 91 and the right-eye top field video frame data 92 in the same frame are set to the same odd number and the same.
  • the values stored in the video frame numbers 22 corresponding to the left-eye bottom field video frame data 93 and the right-eye bottom field video frame data 94 in the same frame are set to the same even number.
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
  • Sub-packets 18a to 10d of the 56th packet are Sub-packets 18a to 10d of the 56th packet.
  • Sub-packets 18a to 10d of the 110th packet are Sub-packets 18a to 10d of the 110th packet.
  • the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
  • the left-eye top field video frame data 91 of the first frame is transmitted in the first to 27th packets, and the first period and the blanking period 97 are transmitted in the 28th to 29th packets.
  • the right-eye top field video frame data 92 of the first frame is packet-transmitted, and in the 56th to 83rd packets, the left-eye bottom field video frame data 93 of the second frame is the packet.
  • the third period and the blanking period 99 are transmitted, and in the 84th to 111th packets, the right frame bottom field video frame data 94 of the second frame is transmitted.
  • Composite video frame data 95 and the synthesized video frame data 96 is transmitted packet using the packet.
  • each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
  • the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
  • the video frame number 22 for storing the frame number
  • the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
  • a V position 24 for storing the location information.
  • synthesized video frame data 95 obtained by synthesizing the left-eye top field video frame data 91 and the right-eye top field video frame data 92, and the left-eye bottom field video frame data 93 and the horizontal position data in the horizontal display period Th and the vertical position in the vertical display period Tv of the composite video frame data 96 obtained by combining the bottom field video frame data 94 for the right eye and the top field video frame for the left eye.
  • AV content data including two-dimensional video data and AV content including three-dimensional video data can be efficiently transmitted in the same packet format.
  • FIG. 14 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 173 according to the tenth embodiment of the present invention.
  • 15 to 16 are tables showing the VIC tables 115t and 127t according to the tenth embodiment of the present invention. This embodiment is different from the first embodiment only in the size of the composite video frame data 173 and the value of the VIC assigned in the VIC tables 115t and 127t. The other operations are the same as those in the first embodiment, and the description of the operation is omitted here.
  • the source device 110 and the sink device 120 include VIC tables 115t and 127t including video format identification codes for identifying a plurality of video formats of two-dimensional data and a plurality of video formats of three-dimensional data, respectively. Stored in the memories 115 and 127 in advance. Specifically, as shown in FIGS. 15 to 16, VICs 96 to 99 are assigned to video formats of three-dimensional data including right-eye video frame data 172 and left-eye video frame data 171, respectively.
  • the number of horizontal and vertical pixels of the composite video frame data 173 is 1920 ⁇ 2160 (the number of horizontal and vertical pixels of the left-eye frame data 171 is 1920 ⁇ 1080, and the number of horizontal and vertical pixels of the right-eye frame data 172 is 1920 ⁇ 1080.
  • the scanning method is progressive scan, the vertical synchronization frequency is 23.97 / 24 Hz, and it is assigned to the frame sequential video format.
  • the VIC 97 has 1920 ⁇ 2160 horizontal and vertical pixel counts of the composite video frame data 173 (the horizontal and vertical pixel counts of the left-eye frame data 171 are 1920 ⁇ 1080, and the horizontal and vertical pixel counts of the right-eye frame data 172 (horizontal The number of pixels ⁇ the number of vertical pixels) is 1920 ⁇ 1080.)
  • the scanning method is progressive scan, the vertical synchronization frequency is 25 Hz, and it is assigned to the frame sequential video format.
  • the number of horizontal and vertical pixels of the composite video frame data 173 is 1280 ⁇ 1440 (the number of horizontal and vertical pixels of the left-eye frame data 171 is 1280 ⁇ 720, and the number of horizontal and vertical pixels of the right-eye frame data 172 is 1280 ⁇ 720)), the scanning method is progressive scan, the vertical synchronization frequency is 59.94 / 60 Hz, and it is assigned to the frame sequential video format. Furthermore, the VIC 99 has the number of horizontal and vertical pixels of the composite video frame data 173 of 1280 ⁇ 1440 (the number of horizontal and vertical pixels of the left-eye frame data 171 is 1280 ⁇ 720, and the horizontal and vertical pixels of the frame data 172 for the right eye).
  • the scanning method is progressive scan, the vertical synchronization frequency is 50 Hz, and it is assigned to the frame sequential video format.
  • Other VICs are allocated to a plurality of two-dimensional video formats and reserved areas (reserved).
  • FIG. 14 shows the format of the composite video frame data 173 when the VIC is 98.
  • the left-eye video frame data 171 and the right-eye video frame data 172 each have a horizontal effective pixel number of 1280 pixels and a vertical effective pixel number of 720 pixels.
  • the composite video frame data 173 has a horizontal pixel count of 1280 pixels and a vertical pixel count of 1440 pixels.
  • the vertical synchronization frequency of the left-eye video frame data 171 and the right-eye video frame data 172 is 59.94 Hz or 60 Hz.
  • the packet processing circuit 113 combines the left-eye video frame data 171 and the right-eye video frame data 172 into the combined video frame data 173.
  • the composite video frame data 172 is transmitted in the horizontal display period Th after the left-eye video frame data 171 for 720 lines is transmitted in the first half of the vertical display period Tv, and then in the second half of the vertical display period Tv.
  • Video frame data 172 is transmitted.
  • the source device 110 divides the synthesized video frame data 173 into a plurality of packets according to the packet format of FIG.
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
  • Sub-packets 18a to 10d of the 576th packet are Sub-packets 18a to 10d of the 576th packet.
  • the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
  • the composite video frame data 173 is packet-transmitted using 72 packets for each video frame.
  • the values stored in the video frame number 22 of the left-eye video frame data 171 and the right-eye video frame data 172 are set to be the same.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x04FF (0 to 1279), and the value stored in the V position 24 is set from 0x0000 to 0x02CF.
  • a value from (0 to 719) is set.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x04FF (0 to 1279), and the value stored in the V position 24 is set from 0x02D0 to 0x059F. It is set to a value from (720 to 1439).
  • the values stored in the video controls 17a, 17b, 17c, and 17d are set as follows.
  • the value stored in the V position 24 of the left-eye video frame data 171 is set to a value from 0 to 719, and the value stored in the V position 24 of the right-eye video frame data 172 is from 720 to 1439. Set to a value.
  • each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
  • the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
  • the video frame number 22 for storing the frame number
  • the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
  • a V position 24 for storing the location information.
  • the sink device 120 has received the data. If the value stored in the V position 24 of the packet is in the range from 0 to 719, it is determined that the video frame data 171 is for the left eye, and if the value stored in the V position 24 is in the range from 720 to 1439. It can be determined that the video frame data is 172 for the right eye. Ri can be transmitted efficiently and AV contents data including a two-dimensional video data, and AV content including three-dimensional video data in the same packet format.
  • the value stored in each V position 24 of the left-eye video frame data 171 and the right-eye video frame data 172 is set to a value in the range of continuous values 0 to 1439.
  • the present invention is not limited to this, and the value stored in each V position 24 of the video frame data 171 for the left eye is set to a value from 0 to 719, and a blanking period (space) is provided for 30 lines.
  • the values of the V positions 24 of the right-eye video frame data 172 may be set to values from 750 to 1469 without being continuous.
  • data other than video data such as audio data or dummy data may be transmitted during the blanking period.
  • FIG. 17 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 183 according to the eleventh embodiment of the present invention.
  • This embodiment is different from the tenth embodiment only in the number of horizontal pixels, the number of vertical pixels, and the vertical synchronization frequency of the composite video frame data 173. Others are the same as those in the tenth embodiment, and thus the description of the operation is omitted here.
  • FIG. 17 shows the format of the composite video frame data 183 when the VIC is 96.
  • the left-eye video frame data 181 and the right-eye video frame data 182 each have a horizontal effective pixel number of 1920 pixels and a vertical effective pixel number of 1080 pixels.
  • the number of horizontal pixels of the composite video frame data 183 is 1920 pixels, and the number of vertical pixels is 2160 pixels.
  • the vertical synchronization frequency of the left-eye video frame data 181 and the right-eye video frame data 182 is 23.97 Hz or 24 Hz.
  • the packet processing circuit 113 synthesizes the left-eye video frame data 181 and the right-eye video frame data 182 into the synthesized video frame data 183.
  • the composite video frame data 183 is transmitted in the first half of the vertical display period Tv in the horizontal display period Th after the left-eye video frame data 181 for 1080 lines is transmitted, and then the right eye for 1080 lines in the second half of the vertical display period Tv.
  • Video frame data 182 is transmitted.
  • the source device 110 divides the synthesized video frame data 183 into a plurality of packets according to the packet format of FIG.
  • the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
  • the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
  • the composite video frame data 183 is packet-transmitted using 108 packets for each video frame.
  • the video frame number 22 of the left-eye video frame data 181 and the right-eye video frame data 182 is set to the same value.
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919)
  • the value stored in the V position 24 is set from 0x0000 to 0x0437. It is set to a value from (0 to 1079).
  • the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is set from 0x0438 to 0x086F. It is set to a value from (1080 to 2159).
  • the values stored in the video controls 17a, 17b, 17c, and 17d are set as follows.
  • (A) The value stored in the video frame number 22 of the left-eye video frame data 181 and the value stored in the video frame number 22 of the right-eye video frame data 182 are set to the same value.
  • the value stored in the V position 24 of the left-eye video frame data 181 is set to a value from 0 to 1079, and the value stored in the V position 24 of the right-eye video frame data 182 is from 1080 to 2159. Set to a value.
  • each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
  • the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
  • the video frame number 22 for storing the frame number
  • the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
  • a V position 24 for storing the location information.
  • the vertical position in Tv is stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 181 and the right-eye video frame data 182, respectively. Therefore, if the value stored in the V position 24 of the received packet is in the range of 0 to 1079, the sink device 120 determines that the video frame data 181 is for the left eye, and the value stored in the V position 24 is 1080. To 2159, it can be determined that the video frame data 182 is for the right eye.
  • AV content data including two-dimensional video data and AV content including three-dimensional video data have the same packet format. Can be transmitted efficiently.
  • the value stored in each V position 24 of the left-eye video frame data 181 and the right-eye video frame data 182 is set to a value in the range of continuous values 0 to 2159.
  • the present invention is not limited to this.
  • the value of the V position 24 of the left-eye video frame data 181 is set to a value from 0 to 1079, and a blanking period (space) is provided for 45 lines.
  • the value of the V position 24 of the video frame data 182 may be set to a value from 1125 to 2204 without being continuous.
  • data other than video data such as audio data or dummy data may be transmitted during the blanking period.
  • the VIC value may be another VIC value such as 4 (720p / 59.94 Hz) or 19 (720p / 50 Hz).
  • the VIC value and the video data output specification (video format) assigned to each VIC in each of the above embodiments are merely examples, and may be other than the VIC and output specifications described above.
  • the 3D structure represents frame packing, side-by-side (full), side-by-side (half), or frame alternative, but other alternatives such as line alternative, L + depth and L + depth + Gfx + G-depth It may represent a video structure.
  • the number of lines of video data stored in one subpacket may be a value other than five.
  • the packet body 15 is composed of the subpacket 18a to the subpacket 18d, but other values may be used as long as the number of subpackets of video data is 4 or less.
  • the source device 110 inserts format information indicating whether the video data is two-dimensional data or three-dimensional data into a predetermined control command such as a stream start notification command.
  • the sink device 120 may notify the sink device 120, and the sink device 120 may decode the video data packet from the source device 110 in accordance with the notified format information.
  • the source device 110 and the sink device 120 are wirelessly connected by a wireless transmission path compliant with wireless HD.
  • the source device 110 and the sink device 120 may be connected using a wireless transmission path or a wired transmission cable.
  • the source device 110 transmits the first video frame data and the first video frame data for each video frame.
  • the video position data of the first pixel stored in the packet is stored in the header of each packet for transmitting the composite video frame data.
  • the synthesized video frame data is divided into a plurality of packets according to a predetermined packet format so as to be inserted as information for identifying the second video frame data, and the plurality of packets are generated. Transmit to device 120.
  • the sink device 120 identifies the first video frame data and the second video frame data based on the horizontal position information and the vertical position information inserted in the video data packet from the source device 110. .
  • the bandwidth management unit 121b is provided in the controller 121 of the sink device 120.
  • the present invention is not limited to this, and may be provided in the controller 111 of the source device 110 or other devices.
  • the H position 23 stores the horizontal position data in the horizontal display period Th
  • the V position 24 stores the vertical position data in the vertical display period Tv.
  • the present invention is not limited to this, and the H position 23 may store horizontal position information within the horizontal display period Th, and the V position 24 may store vertical position information within the vertical display period Tv.
  • the video data is converted into the first video frame data and the second video frame by the source device.
  • the first video frame data and the second video frame data are synthesized into synthesized video frame data, and the synthesized video frame data is transmitted.
  • the horizontal position information in the horizontal display period and the vertical position information in the vertical display period of the first pixel of the synthesized video frame data stored in the packet are indicated by the first and second videos.
  • the composite video frame data is inserted so as to be inserted as information for identifying the frame data.
  • the packet is divided into a plurality of packets according to the packet format to generate the plurality of packets, and the plurality of generated packets are transmitted to the sink device.
  • the sink device receives the transmitted packet and receives the received packet. Since the first video frame data and the second video frame data are identified based on horizontal position information and vertical position information inserted in a plurality of packets, video data of three-dimensional data is transmitted in real time. it can. In particular, it is possible to efficiently transmit AV content data including video data of two-dimensional data and video data of three-dimensional data by using a packet format of wireless HD video data according to the prior art.
  • the present invention is particularly applicable to transmission of uncompressed AV content data in a wireless communication system compliant with a wireless communication standard such as wireless HD.
  • Blanking period 161: Left-eye video frame data, 162 ... Right-eye video frame data, 163 ... composite video frame data, 171 ... Left eye video frame data, 172 ... right eye video frame data, 173 ... Composite video frame data, 181 ... Video frame data for the left eye, 182 ... right eye video frame data, 183 ... composite video frame data, 201: Left-eye video frame data, 202 ... right eye video frame data, 203 ... Composite video frame data, 209 ... Blanking period.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 ソース機器(110)は、ビデオフレーム毎に、右目用ビデオフレームデータ(182)と左目用ビデオフレームデータ(181)とを合成ビデオフレームデータ(183)に合成する。そして、ソース機器は、合成ビデオフレームデータ(183)を伝送するための各パケットのヘッダに当該パケットに属する合成ビデオフレームデータ(183)の先頭ピクセルの水平位置情報及び垂直位置情報を、右目用ビデオフレームデータ(182)と左目用ビデオフレームデータ(181)と識別するための情報として挿入するように、合成ビデオフレームデータ(183)を複数のパケットに分割して当該複数のパケットを生成し、当該複数のパケットをシンク機器(120)に送信する。

Description

ビデオデータのパケット伝送方法
 本発明は、ビデオデータのパケット伝送方法、当該ビデオデータを送信するソース機器、当該ビデオデータを受信するシンク機器、並びに当該ソース機器及びシンク機器を備えた通信システムに関し、特に、右目用ビデオフレームデータ及び左目用ビデオフレームデータなどの第1及び第2のビデオフレームデータを含む三次元(3D又は立体(stereoscopic)ともいう。)のビデオデータのパケット伝送方法、当該ビデオデータを送信するソース機器、当該ビデオデータを受信するシンク機器、並びに当該ソース機器及びシンク機器を備えた通信システムに関する。
 音声及び映像機器(以下、AV(Audio and Visual)機器という。)間で非圧縮のベースバンド映像信号とデジタル音声信号をワイヤレス伝送するための標準規格であるワイヤレスHD(WirelessHD)が策定されている(非特許文献1参照。)。ワイヤレスHDはデジタルビデオレコーダやセットトップボックス、パーソナルコンピュータなどのソース機器に蓄えられた高精細の動画データを、ソース機器をシンク機器にケーブル接続することなくハイビジョンテレビなどのシンク機器で視聴するための技術仕様である。また、双方向のコントロール信号も含んでいるので、テレビとデジタルビデオレコーダを連動させるように制御することや、複数のAV機器を用いてホームシアターなどを構成してこれらのAV機器を一元的に制御することができ、これらの制御のためのプロトコルが定義されている。加えて、ワイヤレスHDは高品質のコンテンツの伝送が可能であるために、提供されるコンテンツが不正に再生されたり、違法にコピーされたりしないように、コンテンツ保護方式としてDTCP(Digital Transmission Content Protection)が定義されている。
 図18は、従来技術に係るワイヤレスHDにおけるビデオデータのフレームフォーマットを示す図である。図18において、ビデオデータの各パケットは、HRP(High Rate Physical Layer)プリアンブル11と、HRPヘッダ12と、MAC(Medium Access Control)ヘッダ13と、HCS(Header Check Sequence)14と、パケットボディ15と、ビームトラッキング16とから構成される。ここで、パケットボディ15は最大で7つのサブパケットに分割され得るが、図18では、4つのサブパケットに分割されている。また、MACヘッダ13は、24バイトのビデオヘッダ17を含み、ビデオヘッダ17は、5バイトのサイズをそれぞれ有しかつパケットボディに含まれる各サブパケットに対応してそれぞれ設けられた4つのビデオコントロール17a,17b,17c,17dと、4バイトのビデオプレイバックタイム17eから構成される。さらに、各ビデオコントロール17a,17b,17c,17dは、4ビットのパーティションインデックス20と、1ビットのインターレースフィールドインディケーション(インターレースインディケーションともいう。)21と、3ビットのビデオフレームナンバー22と、16ビットのHポジション23Pと、16ビットのVポジション24Pから構成される。
 ここで、HRPプリアンブル11はバースト信号であるHRP信号を復調するためにパケット先頭に位置する同期パターン部であり、HRPヘッダ12はワイヤレスHDの物理層(Physical Layer)の制御情報を格納するヘッダ部であり、MACヘッダ13はワイヤレスHDのMAC層の制御情報を格納するヘッダ部であり、HCS14はHRPヘッダ12とMACヘッダ13のエラー検出のためのデータを格納するエラー検出部であり、パケットボディ15はビデオデータがパッキングされたペイロード部(最大7つのサブパケットに分割される。)であり、ビームトラッキング16はHRP信号のビーム方向を機器間で追従させるための制御データを格納する制御データ部である。また、ビデオヘッダ17はパケットボディ15のビデオデータに関する制御情報を格納するヘッダ部である。
 さらに、各ビデオコントロール17a,17b,17c,17dはパケットボディ15の4つのサブパケットに格納された各ビデオデータに関するフォーマット情報を格納するヘッダ部であり、ビデオプレイバックタイム17eはパケットボディ15のビデオデータに関する再生情報を格納する。また、パーティションインデックス20はパケットボディ15の各サブパケットに格納されたビデオデータに関するピクセルデータの分割情報を格納し、インターレースフィールドインディケーション21はパケットボディ15に格納された各サブパケットのビデオデータに関するインターレース信号のトップとボトムを識別するデータを格納し、ビデオフレームナンバー22はパケットボディ15に格納された各サブパケットのビデオデータに関するピクセルデータのビデオフレーム番号を格納し、Hポジション23Pはパケットボディ15に格納された各サブパケットのビデオデータに関する先頭ピクセルの水平位置情報を格納し、Vポジション24Pはパケットボディ15の各サブパケットに格納されたビデオデータに関する先頭ピクセルの垂直位置情報を格納する。
 以上のように構成されたビデオデータのパケット伝送方法を説明する。始めに、ソース機器とシンク機器は60GHz帯のLRP(Low Rate PHY)信号を用いて相互にワイヤレス接続される。そして、3Gbps以上の高速伝送が可能であるHRP(High Rate PHY)信号を用いてソース機器からシンク機器に非圧縮のビデオデータが時分割伝送される。
 まず、ソース機器からシンク機器に伝送するビデオデータのフォーマットが1080p(水平方向1920ピクセル/垂直方向1080ライン/プログレッシブスキャン)の場合について説明する。ここでは一例として、パケットボディ15は第1~第4のサブパケットから構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされているものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23P及びVポジション24Pに格納される各値は以下のように設定され、ビデオデータは順次伝送される。なお、本明細書において、0xから始まる数値は16進数を表す。
第1のパケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000f;
第2のパケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0014;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0019;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x001e;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0023;
………;
第54のパケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0424;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0429;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x042e;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0433;
第55のパケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x000f;
………;
第432のパケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x0424;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x0429;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x042e;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x0433;
第433のパケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000f;
以降同様に続く.
 ここで、パーティションインデックス20には0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 次に、ソース機器からシンク機器に伝送するビデオデータのフォーマットが1080i(水平方向1920ピクセル/垂直方向1080ライン/インターレーススキャン)の場合について説明する。上述した例と同様に、パケットボディ15は第1~第4のサブパケットから構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされているものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23P及びVポジション24Pに格納される各値は以下のように設定され、ビデオデータは順次伝送される。
第1パケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000f;
第2のパケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0014;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0019;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x001e;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0023;
………;
第27パケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0208;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x020d;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0212;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0217;
第28パケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x000f;
………;
第54パケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0208;
第2のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x020d;
第3のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0212;
第4のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0217;
第55パケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x2、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x2、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x2、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x2、Hポジション23P=0x0000、Vポジション24P=0x000f;
………;
第216パケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x0208;
第2のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x020d;
第3のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x0212;
第4のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x0217;
第217パケットの第1~第4のサブパケット.
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000f;
以降同様に続く.
 ここで、パーティションインデックス20には値0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 このような従来技術に係るビデオデータのパケットフォーマットを用いて、ソース機器からシンク機器に非圧縮のビデオデータをリアルタイムで伝送することができる。従来技術に係るワイヤレスHDのパケットフォーマットについては、例えば特許文献1~3及び非特許文献1に開示されている。
米国特許出願公開第2008/0130741号明細書。 米国特許出願公開第2008/0250294号明細書。 米国特許出願公開第2007/0230461号明細書。 米国特許出願公開第2002/0030675号明細書。 米国特許出願公開第2005/0248802号明細書。 特開2006-352876号公報。 特開2006-352877号公報。
WirelessHD Specification Version 1.0 Overview、2007年10月9日。
 しかしながら、従来技術に係るビデオデータのパケットフォーマットでは、ビデオヘッダ17がビデオコントロール17a,17b,17c,17dと、ビデオプレイバックタイム17eとから構成され、各ビデオコントロール17a,17b,17c,17dはパーティションインデックス20と、インターレースフィールドインディケーション21と、ビデオフレームナンバー22と、Hポジション23Pと、Vポジション24Pとから構成されており、ビデオデータが1つのフレームデータを含む二次元(2D又は平面(flat)ともいう。)のコンテンツデータ(以下、二次元データという。)であることを想定していた。このため、ビデオデータが右目用ビデオフレームデータと左目用ビデオフレームデータなどの第1及び第2のビデオフレームデータを含む三次元のコンテンツデータ(以下、三次元データという。)の場合には、左目用ビデオフレームデータと右目用ビデオフレームデータとをソース機器及びシンク機器において識別することができず、当該ビデオデータを伝送できないという課題があった。
 また、特許文献4~7はそれぞれ、上記三次元データの伝送方法を開示しているが、三次元データをパケット伝送するときのパケットの具体的な構成を開示してはいなかった。
 本発明の目的は以上の問題点を解決し、右目用ビデオフレームデータと左目用ビデオフレームデータなどの第1及び第2のビデオフレームデータを含む三次元のビデオデータを伝送できるビデオデータのパケット伝送方法、当該ビデオデータを送信するソース機器、当該ビデオデータを受信するシンク機器、並びに当該ソース機器及びシンク機器を備えた通信システムを提供することにある。
 第1の発明に係るソース機器は、
 シンク機器にビデオデータを所定のパケットフォーマットのビデオフレームを用いて送信するソース機器において、
 上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成する第1のパケット処理手段と、
 上記生成された複数のパケットを上記シンク機器に送信する送信手段とを備えたことを特徴とする。
 また、上記ソース機器において、上記第1のパケット処理手段は、上記ビデオフレームの水平表示期間において、垂直表示期間の前半で所定のライン数の第1のビデオフレームデータを送信した後に、上記垂直表示期間の後半で上記所定のライン数の第2のビデオフレームデータを送信するように、上記合成ビデオフレームデータを構成することを特徴とする。
 さらに、上記ソース機器において、上記第1のパケット処理手段は、上記所定のライン数の第1のビデオフレームデータの送信期間と上記所定のライン数の第2のビデオフレームデータの送信期間との間に所定のブランキング期間を設けたことを特徴とする。
 またさらに、上記ソース機器において、上記ビデオデータが、上記三次元データと第3のビデオフレームデータを含む二次元データとのうちのいずれであるかを表すフォーマット情報を所定の制御コマンドに挿入して、上記シンク機器に送信する制御手段を備えたことを特徴とする。
 また、上記ソース機器において、第3のビデオフレームデータを含む二次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記三次元データの複数のビデオストラクチャーを識別するための3Dストラクチャーとを含む第1のビデオフォーマット識別コードテーブルをあらかじめ格納した第1の記憶手段と、
 上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを上記シンク機器に送信する制御手段とを備えたことを特徴とする。
 さらに、上記ソース機器において、(a)第3のビデオフレームデータを含む二次元データの複数のビデオフォーマット及び(b)上記三次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードを含む第1のビデオフォーマット識別コードテーブルをあらかじめ格納した第1の記憶手段と、
 上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを上記シンク機器に送信する制御手段とを備えたことを特徴とする。
 第2の発明に係るシンク機器は、ビデオデータを所定のパケットフォーマットのビデオフレームを用いて送信するソース機器から上記ビデオデータを受信するシンク機器において、
 上記ソース機器は、
 上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成する第1のパケット処理手段と、
 上記生成された複数のパケットを上記シンク機器に送信する送信手段とを備え、
 上記シンク機器は、
 上記送信されたパケットを受信し、上記受信された複数のパケットに挿入された水平位置情報及び垂直位置情報に基づいて、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを識別する第2のパケット処理手段を備えたことを特徴とする。
 また、上記シンク機器において、上記第2のパケット処理手段は、上記ソース機器から、上記ビデオデータが上記三次元データと第3のビデオフレームデータを含む二次元データとのうちのいずれであるかを表すフォーマット情報を受信し、上記受信された複数のパケットを上記受信されたフォーマット情報に従ってデコードすることを特徴とする。
 さらに、上記シンク機器において、第3のビデオフレームデータを含む二次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記三次元データの複数のビデオストラクチャーを識別するための3Dストラクチャーとを含む第2のビデオフォーマット識別コードテーブルをあらかじめ格納した第2の記憶手段をさらに備え、
 上記第2のパケット処理手段は、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを受信し、上記受信されたビデオフォーマット識別コード及び3Dストラクチャーに基づいて上記第2のビデオフォーマット識別コードテーブルを参照して、ビデオフォーマット及びビデオストラクチャーを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマット及びビデオストラクチャーに従ってデコードすることを特徴とする。
 またさらに、上記シンク機器において、(a)第3のビデオフレームデータを含む二次元データの複数のビデオフォーマット及び(b)上記三次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードを含む第2のビデオフォーマット識別コードテーブルをあらかじめ格納した第2の記憶手段をさらに備え、
 上記第2のパケット処理手段は、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを受信し、上記受信されたビデオフォーマット識別コードに基づいて上記第2のビデオフォーマット識別コードテーブルを参照してビデオフォーマットを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマットに従ってデコードすることを特徴とする。
 第3の発明に係る通信システムは、上記ソース機器と上記シンク機器とを備えたことを特徴とする。
 第4の発明に係るビデオデータのパケット伝送方法は、ソース機器からシンク機器にビデオデータを所定のパケットフォーマットのビデオフレームを用いて送信するビデオデータのパケット伝送方法において、
 上記ソース機器により、上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成する第1のパケット処理ステップと、
 上記ソース機器により、上記生成された複数のパケットを上記シンク機器に送信する送信ステップと、
 上記シンク機器により、上記送信されたパケットを受信し、上記受信された複数のパケットに挿入された水平位置情報及び垂直位置情報に基づいて、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを識別する第2のパケット処理ステップとを含むことを特徴とする。
 また、上記ビデオデータのパケット伝送方法において、上記第1のパケット処理ステップは、上記ビデオフレームの水平表示期間において、垂直表示期間の前半で所定のライン数の第1のビデオフレームデータを送信した後に、上記垂直表示期間の後半で上記所定のライン数の第2のビデオフレームデータを送信するように、上記合成ビデオフレームデータを構成するステップを含むこと特徴とする。
 さらに、上記ビデオデータのパケット伝送方法において、上記第1のパケット処理ステップは、上記所定のライン数の第1のビデオフレームデータの送信期間と上記所定のライン数の第2のビデオフレームデータの送信期間との間に所定のブランキング期間を設けるステップを含むこと特徴とする。
 またさらに、上記ビデオデータのパケット伝送方法において、上記ソース機器により、上記ビデオデータが上記三次元データと第3のビデオフレームデータを含む二次元データとのうちのいずれであるかを表すフォーマット情報を所定の制御コマンドに挿入して、上記シンク機器に送信する制御ステップをさらに含み、
 上記第2のパケット処理ステップは、上記ソース機器から、上記フォーマット情報を受信し、上記受信された複数のパケットを上記受信されたフォーマット情報に従ってデコードするステップを含むことを特徴とする。
 また、上記ビデオデータのパケット伝送方法において、上記ソース機器により、第3のビデオフレームデータを含む二次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記三次元データの複数のビデオストラクチャーを識別するための3Dストラクチャーとを含む第1のビデオフォーマット識別コードテーブルを第1の記憶手段にあらかじめ格納するステップと、
 上記シンク機器により、上記ビデオフォーマット識別コード及び上記3Dストラクチャーを含む第2のビデオフォーマット識別コードテーブルを第2の記憶手段にあらかじめ格納するステップと、
 上記ソース機器により、上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを上記シンク機器に送信する制御ステップとをさらに含み、
 上記第2のパケット処理ステップは、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを受信し、上記受信されたビデオフォーマット識別コード及び3Dストラクチャーに基づいて上記第2のビデオフォーマット識別コードテーブルを参照して、ビデオフォーマット及びビデオストラクチャーを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマット及びビデオストラクチャーに従ってデコードするステップを含むことを特徴とする。
 さらに、上記ビデオデータのパケット伝送方法において、上記ソース機器により、(a)第3のビデオフレームデータを含む二次元データの複数のビデオフォーマット及び(b)上記三次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードを含む第1のビデオフォーマット識別コードテーブルを第1の記憶手段にあらかじめ格納するステップと、
 上記シンク機器により、上記ビデオフォーマット識別コードを含む第2のビデオフォーマット識別コードテーブルを第2の記憶手段にあらかじめ格納するステップと、
 上記ソース機器により、上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを上記シンク機器に送信する制御ステップとをさらに含み、
 上記第2のパケット処理ステップは、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを受信し、上記受信されたビデオフォーマット識別コードに基づいて上記第2のビデオフォーマット識別コードテーブルを参照してビデオフォーマットを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマットに従ってデコードするステップを含むことを特徴とする。
 本発明に係るソース機器、シンク機器、通信システム及びビデオデータのパケット伝送方法によれば、ソース機器により、上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成し、上記生成された複数のパケットを上記シンク機器に送信し、シンク機器により、上記送信されたパケットを受信し、上記受信された複数のパケットに挿入された水平位置情報及び垂直位置情報に基づいて、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを識別するので、三次元データのビデオデータをリアルタイムで伝送できる。特に、従来技術に係るワイヤレスHDのビデオデータのパケットフォーマットを用いて、二次元データのビデオデータ及び三次元データのビデオデータを含むAVコンテンツデータを効率よく伝送できる。
本発明の第1の実施形態に係るビデオデータのパケット伝送方法を用いてビデオデータを伝送する無線通信システムの構成を示すブロック図である。 図1の無線通信システムにおいて伝送される合成ビデオフレームデータ3の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。 図1の無線通信システムにおいて用いるビデオデータのフレームフォーマットを示す図である。 図1の無線通信システムによって実行されるAVコンテンツデータ伝送処理を示すシーケンス図である。 本発明の第2の実施形態に係る合成ビデオフレームデータ43の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。 本発明の第3の実施形態に係る合成ビデオフレームデータ53の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。 本発明の第4の実施形態に係る合成ビデオフレームデータ63の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。 本発明の第5の実施形態に係るAVコンテンツデータ伝送処理を示すシーケンス図である。 本発明の第5の実施形態に係る合成ビデオフレームデータ203の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。 本発明の第6の実施形態に係る合成ビデオフレームデータ143の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。 本発明の第7の実施形態に係る合成ビデオフレームデータ155及び156の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。 本発明の第8の実施形態に係る合成ビデオフレームデータ163の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。 本発明の第9の実施形態に係る合成ビデオフレームデータ163の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。 本発明の第10の実施形態に係る合成ビデオフレームデータ173の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。 本発明の第10の実施形態に係るVICテーブル115t及び127tの第1の部分を示す表である。 本発明の第10の実施形態に係るVICテーブル115t及び127tの第2の部分を示す表である。 本発明の第11の実施形態に係る合成ビデオフレームデータ183の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。 従来技術に係るワイヤレスHDにおけるビデオデータのフレームフォーマットを示す図である。
 以下、本発明に係る実施形態について図面を参照して説明する。なお、以下の各実施形態において、同様の構成要素については同一の符号を付している。
第1の実施形態.
 図1は、本発明の第1の実施形態に係るビデオデータのパケット伝送方法を用いてビデオデータを伝送する無線通信システムの構成を示すブロック図である。また、図2は、図1の無線通信システムにおいて伝送される合成ビデオフレームデータ3の水平同期信号と垂直同期信号との関係に基づいたデータ配置図であり、図3は、図1の無線通信システムにおいて用いるビデオデータのフレームフォーマットを示す図である。さらに、図4は、図1の無線通信システムによって実行されるAVコンテンツデータ伝送処理を示すシーケンス図である。なお、図1のソース機器110及びシンク機器120の各構成及び図4のAVコンテンツデータ伝送処理は、以下の第1~第4、第10及び第11の各実施形態に適用される。
 詳細後述するように、本実施形態に係る無線通信システムは、ソース機器110からシンク機器120にビデオデータを所定のパケットフォーマットのビデオフレームを用いて送信する。ここで、ソース機器110は、上記ビデオデータが左目用ビデオフレームデータ1と右目用ビデオフレームデータ2とを含む三次元データであるときに、上記ビデオフレーム毎に、左目用ビデオフレームデータ1と右目用ビデオフレームデータ2とを合成ビデオフレームデータ3に合成し、上記合成ビデオフレームデータ3を伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータ3の先頭ピクセルの水平表示期間Th内の水平位置情報及び垂直表示期間Tv内の垂直位置情報を、左目用ビデオフレームデータ1と右目用ビデオフレームデータ2とを識別するためのデータとして挿入するように、上記合成ビデオフレームデータ3を上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成するパケット処理回路113と、上記生成された複数のパケットをシンク機器120に送信するパケット無線送受信回路114とを備えたことを特徴としている。また、シンク機器120は、上記送信されたパケットを受信し、上記受信された複数のパケットに挿入された水平位置情報及び垂直位置情報に基づいて、左目用ビデオフレームデータ1と右目用ビデオフレームデータ2とを識別するパケット処理回路123を備えたことを特徴としている。
 さらに、ソース機器110は、二次元データの複数のビデオフォーマット及び三次元データの複数のビデオフォーマットを識別するためのビデオコード又はビデオフォーマット識別コード(Video Format Identification Code:以下、VICという。)を含むVICテーブル115tをあらかじめ格納したメモリ115と、VICテーブル115tを参照して、上記ビデオデータのビデオフォーマットを識別するためのVICを上記シンク機器120に送信するコントローラ111とを備えたことを特徴としている。
 またさらに、シンク機器120は、VICを含むVICテーブル127tをあらかじめ格納したメモリ127をさらに備え、パケット処理回路123は、ソース機器110から、上記ビデオデータのビデオフォーマットを識別するためのVICを受信し、上記受信されたVICに基づいてVICテーブル127tを参照してビデオフォーマットを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマットに従ってデコードすることを特徴としている。
 また、パケット処理回路113は、ビデオフレームの水平表示期間Thにおいて、垂直表示期間Tvの前半で1080ライン分の左目用ビデオフレームデータ1を送信した後に、垂直表示期間Tvの後半で1080ライン分の右目用ビデオフレームデータ2を送信するように、合成ビデオフレームデータ3を構成することを特徴としている。
 図1において、本実施形態に係る無線通信システムは、ワイヤレスHDに準拠している。AVコンテンツデータのソース機器として機能するソース機器110は、映像音声再生装置112と、パケット処理回路113と、アンテナ116を備えたパケット無線送受信回路114と、VICテーブル115tをあらかじめ格納するメモリ115と、これらの装置及び回路112~115の動作を制御するコントローラ111とを備えて構成される。映像音声再生装置112は、例えばDVDプレーヤであって、外部の記憶装置又はMD、DVDなどの記録媒体からビデオデータ及びオーディオデータを再生してパケット処理回路113に出力する。パケット処理回路113は入力されるビデオデータ及びオーディオデータを、詳細後述するように所定のパケットの形式のデジタル信号に変換してパケット無線送受信回路114に出力する。パケット無線送受信回路114は入力されるデジタル信号に従って搬送波信号をデジタル変調し、変調後の無線信号を、アンテナ116を介してシンク機器120のパケット無線送受信回路122に無線送信する。一方、シンク機器120から無線送信される無線信号はアンテナ116を介してパケット無線送受信回路114によって受信され、パケット無線送受信回路114は受信された無線信号をベースバンド信号に復調した後、パケット処理回路113に出力する。パケット処理回路113は、入力されるベースバンド信号から所定のパケット分離処理により所定の制御コマンドのみを取り出した後にコントローラ111に出力する。
 また、シンク機器120は、アンテナ128を備えたパケット無線送受信回路122と、パケット処理回路123と、映像音声処理回路124と、スピーカ125と、二次元データ及び三次元データを表示するディスプレイ126と、EDID(Extended Display Identification Data)データ127d及びVICテーブル127tをあらかじめ格納するメモリ127と、これらの回路等122~124,127の動作を制御するコントローラ121とを備えて構成される。また、コントローラ121は、無線ネットワークの使用帯域及び信号送出のタイミング制御を管理する帯域管理部121bを備えて構成される。パケット無線送受信回路122は、アンテナ128を介して受信された無線信号をベースバンド信号に復調した後、パケット処理回路123に出力する。パケット処理回路123は、入力されるデジタル信号から所定のパケット分離処理によりビデオデータ、オーディオデータ及び所定の制御コマンドのみを取り出すことにより受信されたパケットをデコードし、ビデオデータ及びオーディオデータを映像音声処理回路124に出力する一方、制御コマンドをコントローラ121に出力する。映像音声処理回路124は入力されるオーディオデータを所定の信号処理やD/A変換処理を実行した後、スピーカ125に出力して音声の出力を行う一方、入力されるビデオデータを所定の信号処理やD/A変換処理を実行した後、ディスプレイ126に出力して表示する。
 図1において、VICテーブル115t及び127tはそれぞれ、二次元データの複数のビデオフォーマット及び三次元データの複数のビデオフォーマットを識別するためのVICを含む。ここで、ビデオフォーマットはシンク機器120におけるビデオデータの出力仕様を表し、ビデオデータの垂直有効画素数、水平有効画素数、走査方法(プログレッシブ(p)又はインターレース(i))、及び垂直同期周波数(フィールドレートともいう。)の各情報を含む。本実施形態において、VICの1から37及び128から136は二次元データの各ビデオフォーマットにそれぞれ割り当てられ、VICの64から72は三次元データの各ビデオフォーマットにそれぞれ割り当てられている。また、EDIDデータ127dは、VICテーブル127tに含まれるVICのうちディスプレイ126を用いて表示可能なビデオデータの各VIC、ディスプレイ126の製品情報及び製造者名、映像符号化方式(例えば、RGB、YC4:4:4又はYC4:2:2)及び音声出力サンプリング等の音声出力仕様(以下、オーディオフォーマットという。)等のデータを含む。
 図1において、コントローラ111は、三次元データをシンク機器120に送信するときに、VICテーブル115tを参照して当該三次元データのVICを選択し、パケット処理回路113に対して、ビデオフレーム毎に、三次元データに含まれる左目用ビデオフレームデータ1と右目用ビデオフレームデータ2とを、選択されたVICに基づいて合成ビデオフレームデータ3に合成するように制御する。
 図2は、VICが66であるときの合成ビデオフレームデータ3の水平同期信号と垂直同期信号との関係に基づいたデータ配置を示す。図2において、水平表示期間Thは水平同期信号の水平同期期間と次の水平同期期間との間の期間であり、垂直表示期間Tvは垂直同期信号の垂直同期期間と次の垂直同期期間との間の期間である。図2において、左目用ビデオフレームデータ1と右目用ビデオフレームデータ2の水平有効画素数はそれぞれ1920ピクセルであり、垂直有効画素数はそれぞれ1080ピクセルである。また、合成ビデオフレームデータ3の水平画素数は1920ピクセルであり、垂直画素数は2160ピクセルである。さらに、左目用ビデオフレームデータ1と右目用ビデオフレームデータ2の垂直同期周波数は60Hzである。パケット処理回路113は、左目用ビデオフレームデータ1と右目用ビデオフレームデータ2とを合成ビデオフレームデータ3に合成する。このとき、合成ビデオフレームデータ3は水平表示期間Thにおいて、垂直表示期間Tvの前半で1080ライン分の左目用ビデオフレームデータ1が送信された後、垂直表示期間Tvの後半で1080ライン分の右目用ビデオフレームデータ2が送信されるように構成される。
 さらに、図1において、パケット処理回路113は、三次元データを送信するときは合成ビデオフレームデータ3を生成して図3のパケットフォーマットに従って複数のパケットに分割する一方、二次元データを送信するときは当該二次元データのビデオフレームデータを生成し、生成されたビデオフレームデータを図3のパケットフォーマットに従って複数のパケットに分割する。ここで、図3において、HRPプリアンブル11はバースト信号であるHRP信号を復調するためにパケット先頭に位置する同期パターンを格納する同期パターン部であり、HRPヘッダ12はワイヤレスHDの物理層の制御情報を格納するヘッダ部であり、MACヘッダ13はワイヤレスHDのMAC層の制御情報を格納するヘッダ部であり、HCS14はHRPヘッダ12とMACヘッダ13のエラー検出のためのデータを格納するエラー検出部であり、パケットボディ15は合成ビデオフレームデータ3又は二次元データのビデオフレームデータであるビデオデータがパッキングされたペイロード部であり、ビームトラッキング16はHRP信号のビーム方向を機器間で追従させるための制御データを格納する制御データ部である。パケットボディ15は最大で7つのサブパケットに分割されるが、本実施形態において、パケットボディ15は4つのサブパケット18a~18dに分割される。また、MACヘッダ13はビデオヘッダ17を含み、ビデオヘッダ17はヘッダ部であって、サブパケット18a~18dに含まれる各ビデオデータに関するフォーマット情報をそれぞれ格納するビデオコントロール17a~17dを含む。
 図3において、ビデオコントロール17aは、パーティションインデックス20、インターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23、及びVポジション24を含む。ここで、ビデオコントロール17aにおいて、パーティションインデックス20はサブパケット18aに格納されたビデオデータ(ピクセルデータ)の分割情報を格納し、インターレースフィールドインディケーション21はサブパケット18aに格納されたビデオデータに関するインターレース信号のトップとボトムを識別するデータを格納し、ビデオフレームナンバー22はサブパケット18aに格納されたビデオデータのビデオフレーム番号を格納する。さらに、ビデオコントロール17b,17c,17dは、それぞれビデオコントロール17aと同様に、パーティションインデックス20、インターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23、及びVポジション24を含む。
 図3において、サブパケット18aに二次元データのビデオフレームデータが格納される場合には、Hポジション23及びVポジション24は、図18の従来技術に係るビデオデータのパケットフォーマットのHポジション23P及びVポジション24Pと同様に、サブパケット18aに格納されたビデオフレームデータの先頭ピクセルの水平表示期間Th内の水平位置データ及び垂直表示期間Tv内の垂直位置データをそれぞれ格納する。また、サブパケット18aに合成ビデオフレームデータ3が格納される場合には、Hポジション23及びVポジション24は、サブパケット18aに格納された合成ビデオフレームデータ3の先頭ピクセルの水平表示期間Th内の水平位置データ及び垂直表示期間Tv内の垂直位置データを、左目用ビデオフレームデータ1及び右目用ビデオフレームデータを識別するためのデータとして、それぞれ格納する。具体的には、左目用ビデオフレームデータ1を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0000から0x0437(0から1079)までの値に設定される。一方、右目用ビデオフレームデータ2を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0438から0x086F(1080から2159)までの値に設定される。なお、同一のフレーム内の左目用ビデオフレームデータ1及び右目用ビデオフレームデータ2に対応する各ビデオフレームナンバー22に格納される各値は、互いに同一に設定される。
 次に、図4を参照して、ソース機器110からシンク機器への三次元データを含むAVコンテンツデータのパケット伝送方法を説明する。なお、ソース機器110及びシンク機器120の動作主体は各コントローラ111,121であるが、以下においてその記載を省略する。始めに、ソース機器110はワイヤレス接続を要求するコネクトリクエスト(CONNECT_REQUEST)コマンドをシンク機器120に無線送信し、これに応答して、シンク機器120は、コネクトレスポンス(CONNECT_RESPONSE)コマンドをソース機器110に送信する。これにより、ソース機器110及びシンク機器120において、通信相手の機器が相互に登録される。次に、ソース機器110とシンク機器120の間で、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するための伝送帯域を確保するためのワイヤレスHDに準拠した帯域予約シーケンスが実行される。帯域予約シーケンスにおいて、ソース機器110は、AVコンテンツデータを送信するための帯域を要求して予約するために帯域要求コマンドをシンク機器120に無線送信する。これに応答して、シンク機器120の帯域管理部121bは、ソース機器110からシンク機器120にAVコンテンツデータを送信するために必要な予約期間を割り当て、割り当てた予約期間の情報を含む期間指定コマンドをソース機器110に無線送信する。
 一方、ソース機器110のコントローラ111は、帯域予約シーケンスに続いて、ステップS1において、VICテーブル115tを参照して、送信する三次元データのフォーマット情報であるVICを選択する。そして、コントローラ111は、パケット処理回路113に対して、ビデオフレーム毎に、右目用ビデオフレームデータ2と左目用ビデオフレームデータ1とを、選択されたVICのビデオフォーマットに従って合成ビデオフレームデータ3に合成するように制御する。さらに、ステップS2において、ソース機器110のコントローラ111は、パケット処理回路113に対して、合成ビデオフレームデータ3を図3のパケットフォーマットに従って複数のパケットに分割するように制御する。これに応答して、パケット処理回路113は、各サブパケット18a,18b,18c,18dの各ビデオコントロール17a,17b,17c,17dの各Hポジション23及び各Vポジション24に、当該サブパケットに格納された合成ビデオフレームデータ3の先頭ピクセルの水平表示期間Th内の水平位置データ及び垂直表示期間Tv内の垂直位置データを、右目用ビデオフレームデータ2と左目用ビデオフレームでた1とを識別するためのデータとしてそれぞれ格納するように、合成ビデオフレームデータ3を図3のパケットフォーマットに従って複数のパケットに分割する。
 次に、ソース機器110は、選択されたVICをストリームスタート通知(STREAM_START_NOTIFY)コマンドに挿入してシンク機器120に通知し、生成された複数のパケット含むAVコンテンツデータを割り当てられた予約期間においてシンク機器120に無線送信する。シンク機器120は、ステップS3において、通知されたVICに基づいてVICテーブル127tを参照してビデオフォーマットを識別し、パケット処理回路123に対して、受信されたビデオデータのパケットを識別されたビデオフォーマットに従ってデコードするように制御する。このとき、パケット処理回路123は、受信されたビデオデータの各パケットのHポジション23に格納された各水平位置データ及びVポジション24に格納された各垂直位置データに基づいて、右目用ビデオフレームデータ2と左目用ビデオフレームデータ1とを識別する。
 なお、ソース機器110は、ステップS2において、オーディオデータを、ワイヤレスHDに準拠したオーディオのパケットフォーマットに従って複数のオーディオパケットに分割し、合成ビデオフレームデータ3の複数のパケットとともにシンク機器120に無線送信する。また、ソース機器110において、パケット処理回路113は、ビデオデータが二次元データであるときには、ビデオフレーム毎に、選択されたVICのビデオフォーマットに従ってビデオフレームデータを生成し、生成されたビデオフレームデータを図3のパケットフォーマットに従って複数のパケットに分割して複数のパケットを生成する。
 次に、図2の合成ビデオフレームデータ3を送信するときにインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23及びVポジション24に格納される各値の具体例を説明する。ここでは一例として、パケットボディ15はサブパケット18aからサブパケット18dで構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされるものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23及びVポジション24に格納される各値は以下のように設定され、順次伝送される。
第1のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
第2のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0023;
………;
第108のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x085c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0861;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0866;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x086b;
第109のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000f;
………;
第864のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x085c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0861;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0866;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x086b;
第865のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
以降同様に続く.
 ここで、パーティションインデックス20には0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 このように、第1~第54のパケットにおいて第1のフレームの左目用ビデオフレームデータ1がパケット伝送され、第55~第108のパケットにおいて第1のフレームの右目用ビデオフレームデータ2がパケット伝送され、以下同様に、ビデオフレーム毎に108個のパケットを用いて合成ビデオフレームデータ3がパケット伝送される。
 以上説明したように、本実施形態によれば、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するネットワークにおいて、非圧縮ビデオデータをパケット伝送するための各パケットのヘッダは、パケットに格納されたピクセルデータの分割情報を格納するパーティションインデックス20と、インターレース信号のトップとボトムを識別するデータを格納するインターレースフィールドインディケーション21と、パケットに格納されたピクセルデータのビデオフレーム番号を格納するビデオフレームナンバー22と、パケットに格納されたビデオデータの先頭ピクセルの水平位置情報を格納するHポジション23と、パケットに格納されたビデオデータの先頭ピクセルの垂直位置情報を格納するVポジション24とを含む。さらに、ビデオデータが三次元データの場合に、左目用ビデオフレームデータ1と右目用ビデオフレームデータ2とを合成して得られる合成ビデオフレームデータ3の水平表示期間Th内の水平位置データと垂直表示期間Tv内の垂直位置データとを、左目用ビデオフレームデータ1と右目用フレームデータ2とを識別するためのデータとして、それぞれHポジション23とVポジション24に格納する。このため、パケット伝送する左目用ビデオフレームデータ1と右目用ビデオフレームデータ2とを識別することが可能となり、二次元のビデオデータを含むAVコンテンツデータと、三次元のビデオデータを含むAVコンテンツとを同一のパケットフォーマットで効率よく伝送することができる。
第2の実施形態.
 図5は、本発明の第2の実施形態に係る合成ビデオフレームデータ43の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第1の実施形態と比較して、合成ビデオフレームデータ43の生成方法のみが異なる。その他については、第1の実施形態と同様であるのでここでは動作の説明は省略する。
 図5に、VICが69であるときの合成ビデオフレームデータ43のフォーマットを示す。図5において、左目用ビデオフレームデータ41と右目用ビデオフレームデータ42の水平有効画素数はそれぞれ1920ピクセルであり、垂直有効画素数はそれぞれ540ピクセルである。また、合成ビデオフレームデータ43の水平画素数は3840ピクセルであり、垂直画素数は540ピクセルである。さらに、左目用ビデオフレームデータ41と右目用ビデオフレームデータ42の垂直同期周波数は60Hzである。パケット処理回路113は、左目用ビデオフレームデータ41と右目用ビデオフレームデータ42とを合成ビデオフレームデータ43に合成する。このとき、合成ビデオフレームデータ43は垂直表示期間Tvにおいて、水平表示期間Thの前半で1920ピクセル分の左目用ビデオフレームデータ41が送信された後、水平表示期間Thの後半で1920ピクセル分の右目用ビデオフレームデータ42が送信されるように構成される。
 ソース機器110は合成ビデオフレームデータ43を、図3のパケットフォーマットに従って複数のパケットに分割してシンク機器120に無線伝送する。このとき、左目用ビデオフレームデータ41を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0000から0x021B(0から539)までの値に設定される。一方、右目用ビデオフレームデータ42を送信するときは、Hポジション23に格納される値は0x0780から0x0EFF(1920から3839)までの値に設定され、Vポジション24に格納される値は0x0000から0x021B(0から539)までの値に設定される。なお、同一のフレーム内の左目用ビデオフレームデータ41及び右目用ビデオフレームデータ42に対応する各ビデオフレームナンバー22に格納される各値は、互いに同一に設定される。
 ここでは一例として、パケットボディ15はサブパケット18aからサブパケット18dで構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされるものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23及びVポジション24に格納される各値は以下のように設定され、順次伝送される。
第1のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0007;
第2のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x000c;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0011;
………;
第54のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0212;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0214;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0217;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0219;
第55のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0780、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0780、Vポジション24=0x0007;
………;
第432のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0212;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0780、Vポジション24=0x0214;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0217;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0780、Vポジション24=0x0219;
第433のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0007;
以降同様に続く.
 ここで、パーティションインデックス20には値0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 このように、ビデオフレーム毎に54個のパケットを用いて合成ビデオフレームデータ43がパケット伝送される。
 以上説明したように、本実施形態によれば、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するネットワークにおいて、非圧縮ビデオデータをパケット伝送するための各パケットのヘッダは、パケットに格納されたピクセルデータの分割情報を格納するパーティションインデックス20と、インターレース信号のトップとボトムを識別するデータを格納するインターレースフィールドインディケーション21と、パケットに格納されたピクセルデータのビデオフレーム番号を格納するビデオフレームナンバー22と、パケットに格納されたビデオデータの先頭ピクセルの水平位置情報を格納するHポジション23と、パケットに格納されたビデオデータの先頭ピクセルの垂直位置情報を格納するVポジション24とを含む。さらに、ビデオデータが三次元データの場合に、左目用ビデオフレームデータ41と右目用ビデオフレームデータ42を合成して得られる合成ビデオフレームデータ43の水平表示期間Th内の水平位置データと垂直表示期間Tv内の垂直位置データとを、左目用ビデオフレームデータ41と右目用フレームデータ42とを識別するためのデータとして、それぞれHポジション23とVポジション24に格納する。このため、パケット伝送する左目用ビデオフレームデータ41と右目用ビデオフレームデータ42を識別することが可能となり、二次元のビデオデータを含むAVコンテンツデータと、三次元のビデオデータを含むAVコンテンツとを同一のパケットフォーマットで効率よく伝送することができる。
第3の実施形態.
 図6は、本発明の第3の実施形態に係る合成ビデオフレームデータ55の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第1の実施形態と比較して、合成ビデオフレームデータ55の生成方法のみが異なる。その他については、第1の実施形態と同様であるのでここでは動作の説明は省略する。
 図6に、VICが64であるときの合成ビデオフレームデータ55のフォーマットを示す。図6において、左目用トップフィールドビデオフレームデータ51と右目用トップフィールドビデオフレームデータ52と左目用ボトムフィールドビデオフレームデータ53と右目用ボトムフィールドビデオフレームデータ54の水平有効画素数はそれぞれ1920ピクセルであり、垂直有効画素数はそれぞれ540ピクセルである。また、合成ビデオフレームデータ55の水平画素数は1920ピクセルであり、垂直画素数は2160ピクセルである。さらに、左目用トップフィールドビデオフレームデータ51と右目用トップフィールドビデオフレームデータ52と左目用ボトムフィールドビデオフレームデータ53と右目用ボトムフィールドビデオフレームデータ54の垂直同期周波数は30Hzである。パケット処理回路113は、左目用トップフィールドビデオフレームデータ51と、右目用トップフィールドビデオフレームデータ52と、左目用ボトムフィールドビデオフレームデータ53と、右目用ボトムフィールドビデオフレームデータ54とを合成ビデオフレームデータ55に合成する。ここで、合成ビデオフレームデータ55は水平表示期間Thにおいて、垂直表示期間Tvの最初の4分の1の期間で540ライン分の左目用トップフィールドビデオフレームデータ51が送信され、2番目の4分の1の期間で540ライン分の右目用トップフィールドビデオフレームデータ52が送信され、3番目の4分の1の期間において540ライン分の左目用ボトムフィールドビデオフレームデータ53が送信され、最後の4分の1の期間で540ライン分の右目用ボトムフィールドビデオフレームデータ54が送信されるように構成される。
 ソース機器110は合成ビデオフレームデータ55を、図3のパケットフォーマットに従って複数のパケットに分割してシンク機器120に無線伝送する。このとき、左目用トップフィールドビデオフレームデータ51を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0000から0x021B(0から539)までの値に設定される。また、右目用トップフィールドビデオフレームデータ52を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x021Cから0x0437(540から1079)までの値に設定される。さらに、左目用ボトムフィールドビデオフレームデータ53を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0438から0x0653(1080から1619)までの値に設定される。またさらに、右目用ボトムフィールドビデオフレームデータ54を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0654から0x086F(1620から2159)までの値に設定される。なお、同一のフレーム内の左目用トップフィールドビデオフレームデータ51、右目用トップフィールドビデオフレームデータ52、左目用ボトムフィールドビデオフレームデータ53、及び右目用ボトムフィールドビデオフレームデータ54に対応する各ビデオフレームナンバー22に格納される各値は、互いに同一に設定される。
 ここでは一例として、パケットボディ15はサブパケット18aからサブパケット18dで構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされるものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23及びVポジション24に格納される各値は以下のように設定され、順次伝送される。
第1のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
第2のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0023;
………;
第27のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0208;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x020d;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0212;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0217;
第28のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x021c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0221;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0226;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x022b;
………;
第54のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0424;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0429;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x042e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0433;
第55のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0438;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x043d;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0442;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0447;
 ………;
第81のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0640;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0645;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x064a;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x064f;
第82のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0654;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0659;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x065e;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0663;
 ………;
第108のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x085c;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0861;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0866;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x086b;
第109のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000f;
 ………;
第864のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x085c;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0861;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0866;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x086b;
第865のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
以降同様に続く.
 ここで、パーティションインデックス20には値0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 このように、第1~第27のパケットにおいて第1のフレームの左目用トップフィールドビデオフレームデータ51がパケット伝送され、第28~第54のパケットにおいて第1のフレームの右目用トップフィールドビデオフレームデータ52がパケット伝送され、第55~第81のパケットにおいて第1のフレームの左目用ボトムフィールドビデオフレームデータ53がパケット伝送され、第82~第108のパケットにおいて第1のフレームの右目用ボトムフィールドビデオフレームデータ54がパケット伝送され、ビデオフレーム毎に108個のパケットを用いて合成ビデオフレームデータ55がパケット伝送される。
 以上説明したように、本実施形態によれば、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するネットワークにおいて、非圧縮ビデオデータをパケット伝送するための各パケットのヘッダは、パケットに格納されたピクセルデータの分割情報を格納するパーティションインデックス20と、インターレース信号のトップとボトムを識別するデータを格納するインターレースフィールドインディケーション21と、パケットに格納されたピクセルデータのビデオフレーム番号を格納するビデオフレームナンバー22と、パケットに格納されたビデオデータの先頭ピクセルの水平位置情報を格納するHポジション23と、パケットに格納されたビデオデータの先頭ピクセルの垂直位置情報を格納するVポジション24とを含む。さらに、ビデオデータが三次元データの場合に、左目用トップフィールドビデオフレームデータ51と、右目用トップフィールドビデオフレームデータ52と、左目用ボトムフィールドビデオフレームデータ53と、右目用ボトムフィールドビデオフレームデータ54とを合成して得られる合成ビデオフレームデータ355の水平表示期間Th内の水平位置データと垂直表示期間Tv内の垂直位置データとを、左目用トップフィールドビデオフレームデータ51と、右目用トップフィールドビデオフレームデータ52と、左目用ボトムフィールドビデオフレームデータ53と、右目用ボトムフィールドビデオフレームデータ54とを識別するためのデータとして、それぞれHポジション23とVポジション24に格納する。このため、パケット伝送する左目用トップフィールドビデオフレームデータ51と、右目用トップフィールドビデオフレームデータ52と、左目用ボトムフィールドビデオフレームデータ53と、右目用ボトムフィールドビデオフレームデータ54とを識別することが可能となり、二次元のビデオデータを含むAVコンテンツデータと、三次元のビデオデータを含むAVコンテンツとを同一のパケットフォーマットで効率よく伝送することができる。
第4の実施形態.
 図7は、本発明の第4の実施形態に係る合成ビデオフレームデータ63の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第1の実施形態と比較して、合成ビデオフレームデータ63の生成方法のみが異なる。その他については、第1の実施形態と同様であるのでここでは動作の説明は省略する。
 図7に、VICが71であるときの合成ビデオフレームデータ43のフォーマットを示す。図7において、左目用ビデオフレームデータ61と右目用ビデオフレームデータ62の水平有効画素数はそれぞれ960ピクセルであり、垂直有効画素数はそれぞれ540ピクセルである。また、合成ビデオフレームデータ63の水平画素数は1920ピクセルであり、垂直画素数は540ピクセルである。さらに、左目用ビデオフレームデータ61と右目用ビデオフレームデータ62の垂直同期周波数64は60Hzである。パケット処理回路113は、左目用ビデオフレームデータ61と右目用ビデオフレームデータ62とを合成ビデオフレームデータ63に合成する。このとき、合成ビデオフレームデータ63は垂直表示期間Tvにおいて、水平表示期間Thの前半で960ピクセル分の左目用ビデオフレームデータ41が送信された後、水平表示期間Thの後半で960ピクセル分の右目用ビデオフレームデータ42が送信されるように構成される。
 ソース機器110は合成ビデオフレームデータ63を、図3のパケットフォーマットに従って複数のパケットに分割してシンク機器120に無線伝送する。このとき、左目用ビデオフレームデータ61を送信するときは、Hポジション23に格納される値は0x0000から0x03BF(0から959)までの値に設定され、Vポジション24に格納される値は0x0000から0x021B(0から539)までの値に設定される。一方、右目用ビデオフレームデータ62を送信するときは、Hポジション23に格納される値は0x03C0から0x07FF(960から1919)までの値に設定され、Vポジション24に格納される値は0x0000から0x021B(0から539)までの値に設定される。なお、同一のフレーム内の左目用ビデオフレームデータ61及び右目用ビデオフレームデータ62に対応する各ビデオフレームナンバー22に格納される各値は、互いに同一に設定される。
 ここでは一例として、パケットボディ15はサブパケット18aからサブパケット18dで構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされるものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23及びVポジション24に格納される各値は以下のように設定され、順次伝送される。
第1のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
第2のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0023;
………;
第27のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0208;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x020d;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0212;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0217;
第28のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000f;
………;
第216のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0208;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x020d;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0212;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0217;
第217のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x000f;
以降同様に続く.
 ここで、パーティションインデックス20には値0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 このように、ビデオフレーム毎に27個のパケットを用いて合成ビデオフレームデータ63がパケット伝送される。
 以上説明したように、本実施形態によれば、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するネットワークにおいて、非圧縮ビデオデータをパケット伝送するための各パケットのヘッダは、パケットに格納されたピクセルデータの分割情報を格納するパーティションインデックス20と、インターレース信号のトップとボトムを識別するデータを角の臼rインターレースフィールドインディケーション21と、パケットに格納されたピクセルデータのビデオフレーム番号を格納するビデオフレームナンバー22と、パケットに格納されたビデオデータの先頭ピクセルの水平位置情報を格納するHポジション23と、パケットに格納されたビデオデータの先頭ピクセルの垂直位置情報を格納するVポジション24とを含む。さらに、ビデオデータが三次元データの場合に、左目用ビデオフレームデータ61と右目用ビデオフレームデータ62を合成して得られる合成ビデオフレームデータ63の水平表示期間Th内の水平位置データと垂直表示期間Tv内の垂直位置データを、左目用ビデオフレームデータ61と右目用ビデオフレームデータ62とを識別するためのデータとして、それぞれHポジション23とVポジション24に格納する。このため、パケット伝送する左目用ビデオフレームデータ61と右目用ビデオフレームデータ62を識別することが可能となり、二次元のビデオデータを含むAVコンテンツデータと、三次元のビデオデータを含むAVコンテンツとを同一のパケットフォーマットで効率よく伝送することができる。
第5の実施形態.
 図8は、本発明の第5の実施形態に係るAVコンテンツデータ伝送処理を示すシーケンス図であり、図9は、本発明の第5の実施形態に係る合成ビデオフレームデータ203の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第1の実施形態に比較して、以下の点が異なる。
(a)ソース機器110は、二次元データの複数のビデオフォーマットを識別するためのVICと、三次元データのビデオストラクチャーを識別するための3Dストラクチャーとを含むVICテーブル115tをメモリ115にあらかじめ格納し、シンク機器120は、二次元データの複数のビデオフォーマットを識別するためのVICと、三次元データのビデオストラクチャーを識別するための3Dストラクチャーとを含むVICテーブル127tにメモリ127にあらかじめ格納したこと。
(b)ソース機器110は、送信するビデオデータのVIC及び3Dストラクチャーをシンク機器120に通知し、シンク機器120は、通知されたVIC及び3Dストラクチャーに基づいてVICテーブル127tを参照してビデオフォーマット及びビデオストラクチャーを識別し、送信されたビデオデータのパケットを識別されたビデオフォーマット及び3Dストラクチャーに従ってデコードすること。
(c)左目用ビデオフレームデータ201の送信期間と右目用ビデオフレームデータ202の送信期間との間にブランキング期間209を設けたこと。
 以下、第1の実施形態との相違点のみを説明する。
 本実施形態において、VICの1から37及び128から136は二次元データの各ビデオフォーマットにそれぞれ割り当てられている。また、3Dストラクチャーは3次元データのビデオストラクチャーである伝送フォーマットを表すコードであって、3次元データに含まれる左目用ビデオフレームデータ、右目用ビデオフレームデータ、左目用トップフィールドビデオフレームデータ、右目用トップフィールドビデオフレームデータ、左目用ボトムフィールドビデオフレームデータ及び右目用ボトムフィールドビデオフレームデータ等の各データの伝送順序及び伝送タイミングを識別する。メモリ115はVIC及び3Dストラクチャーを含むVICテーブル115tをあらかじめ格納し、メモリ127はVIC及び3Dストラクチャーを含むVICテーブル127tをあらかじめ格納している。
 次に、図8を参照して、ソース機器110からシンク機器への三次元データを含むAVコンテンツデータのパケット伝送方法を説明する。図8において、帯域予約シーケンスまでの各処理は、図4の第1の実施形態に係るAVコンテンツデータ転送処理における帯域予約シーケンスまでの各処理と同様に実行される。帯域予約シーケンスに続いて、ステップS1Aにおいて、ソース機器110のコントローラ111は、VICテーブル115tを参照して、送信する三次元データのVIC及び3Dストラクチャーを選択する。そして、コントローラ111は、パケット処理回路113に対して。ビデオフレーム毎に、右目用ビデオフレームデータ202と左目用ビデオフレームデータ201とを、選択されたVICのビデオフォーマット及び選択された3Dストラクチャーのビデオストラクチャーに従って合成ビデオフレームデータ203に合成するように制御する。さらに、ステップS2Aにおいて、ソース機器110のコントローラ111は、パケット処理回路113に対して、合成ビデオフレームデータ203を図3のパケットフォーマットに従って複数のパケットに分割するように制御する。これに応答して、パケット処理回路113は、各サブパケット18a,18b,18c,18dの各ビデオコントロール17a,17b,17c,17dの各Hポジション23及び各Vポジション24に、当該サブパケットに格納された合成ビデオフレームデータ203の先頭ピクセルの水平表示期間Th内の水平位置データ及び垂直表示期間Tv内の垂直位置データを、右目用ビデオフレームデータ202と左目用ビデオフレームデータ201と識別するためのデータとしてそれぞれ格納するように、合成ビデオフレームデータ203を図3のパケットフォーマットに従って複数のパケットに分割する。
 次に、ソース機器110は、シンク機器120にストリームスタート通知(STREAM_START_NOTIFY)コマンドを無線送信する。本実施形態において、ストリームスタート通知メッセージは、伝送するビデオデータのVIC及び3Dストラクチャーを含む。そして、ソース機器110は、生成された複数のパケットを、割り当てられた予約期間においてシンク機器120に無線送信する。シンク機器120は、通知されたVIC及び3Dストラクチャーに基づいてVICテーブル127tを参照してビデオフォーマット及びビデオストラクチャーを識別し、パケット処理回路123に対して、送信されたビデオデータのパケットを識別されたビデオフォーマット及びビデオストラクチャーに従ってデコードするように制御する。このとき、パケット処理回路123は、受信されたビデオデータの各パケットのHポジション23に格納された各水平位置データ及びVポジション24に格納された各垂直位置データに基づいて、右目用ビデオフレームデータ202と左目用ビデオフレームデータ201とを識別する。なお、本実施形態において、ソース機器110は第1の実施形態と同様に、二次元データ及びオーディオデータをシンク機器120に無線送信する。
 図9は、本発明の第5の実施形態に係る合成ビデオフレームデータ203の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。図9に、VICが32であり、3Dストラクチャーがフレームパッキングを表すときの合成ビデオフレームデータ203のフォーマットを示す。図9において、左目用ビデオフレームデータ201と右目用ビデオフレームデータ202の水平有効画素数はそれぞれ1920ピクセルであり、垂直有効画素数はそれぞれ1080ピクセルである。また、合成ビデオフレームデータ203の水平画素数は1920ピクセルであり、垂直画素数は2205ピクセルである。さらに、左目用ビデオフレームデータ1と右目用ビデオフレームデータ2の垂直同期周波数は23.976Hzである。パケット処理回路113は、左目用ビデオフレームデータ201と右目用ビデオフレームデータ202とを合成ビデオフレームデータ203に合成する。このとき、合成ビデオフレームデータ203は水平表示期間Thにおいて、垂直表示期間Tvの前半で1080ライン分の左目用ビデオフレームデータ201が送信された後、垂直表示期間Tvの後半で1080ライン分の右目用ビデオフレームデータ202が送信されるように構成される。さらに、左目用ビデオフレームデータ201の送信期間と右目用ビデオフレームデータ202の送信期間との間にブランキング期間209が設けられる。
 ソース機器110は合成ビデオフレームデータ203を、図3のパケットフォーマットに従って複数のパケットに分割してシンク機器120に無線伝送する。このとき、左目用ビデオフレームデータ201を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0000から0x0437(0から1079)までの値に設定される。一方、右目用ビデオフレームデータ202を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0465から0x089C(1125から2204)までの値に設定される。また、ブランキング期間209を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0438から0x0464(1080から1124)までの値に設定される。なお、同一のフレーム内の左目用ビデオフレームデータ201及び右目用ビデオフレームデータ202及びブランキング期間209に対応する各ビデオフレームナンバー22に格納される各値は、互いに同一に設定される。
 ここでは一例として、パケットボディ15はサブパケット18aからサブパケット18dで構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされるものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23及びVポジション24に格納される各値は以下のように設定され、順次伝送される。
第1のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
第2のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0023;
………;
第110のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0884;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0889;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x088E;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0893;
第111のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0898;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
………;
第883のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0889;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x088E;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0893;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0899;
第884のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
以降同様に続く.
 ここで、パーティションインデックス20には値0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 このように、第1~第54のパケットにおいて第1のフレームの左目用ビデオフレームデータ201がパケット伝送され、第55~第57のパケットにおいてブランキング期間209がパケット伝送され、第57のパケット~第111のパケットにおいて第1のフレームの右目用ビデオフレームデータ202がパケット伝送され、以下同様に、ビデオフレーム毎に110個のパケットと1個のサブバケットを用いて合成ビデオフレームデータ203がパケット伝送される。
 以上説明したように、本実施形態によれば、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するネットワークにおいて、非圧縮ビデオデータをパケット伝送するための各パケットのヘッダは、パケットに格納されたピクセルデータの分割情報を格納するパーティションインデックス20と、インターレース信号のトップとボトムを識別するデータを格納するインターレースフィールドインディケーション21と、パケットに格納されたピクセルデータのビデオフレーム番号を格納するビデオフレームナンバー22と、パケットに格納されたビデオデータの先頭ピクセルの水平位置情報を格納するHポジション23と、パケットに格納されたビデオデータの先頭ピクセルの垂直位置情報を格納するVポジション24とを含む。さらに、ビデオデータが三次元データの場合に、左目用ビデオフレームデータ201と右目用ビデオフレームデータ202とを合成して得られる合成ビデオフレームデータ203の水平表示期間Th内の水平位置データと垂直表示期間Tv内の垂直位置データを、左目用ビデオフレームデータ201と右目用ビデオフレームデータ202とを識別するためのデータとして、それぞれHポジション23とVポジション24に格納する。このため、パケット伝送する左目用ビデオフレームデータ201と右目用ビデオフレームデータ202とを識別することが可能となり、二次元のビデオデータを含むAVコンテンツデータと、三次元のビデオデータを含むAVコンテンツとを同一のパケットフォーマットで効率よく伝送することができる。
第6の実施形態.
 図10は、本発明の第2の実施形態に係る合成ビデオフレームデータ143の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第5の実施形態と比較して、合成ビデオフレームデータ143の生成方法のみが異なる。その他については、第5の実施形態と同様であるのでここでは動作の説明は省略する。
 図10に、VICが16であり、3Dストラクチャーがサイドバイサイド(フル)を表すときの合成ビデオフレームデータ143のフォーマットを示す。図10において、左目用ビデオフレームデータ141と右目用ビデオフレームデータ142の水平有効画素数はそれぞれ1920ピクセルであり、垂直有効画素数はそれぞれ1080ピクセルである。また、合成ビデオフレームデータ143の水平画素数は3840ピクセルであり、垂直画素数は1080ピクセルである。さらに、左目用ビデオフレームデータ141と右目用ビデオフレームデータ142の垂直同期周波数は60Hzである。パケット処理回路113は、左目用ビデオフレームデータ141と右目用ビデオフレームデータ142とを合成ビデオフレームデータ143に合成する。このとき、合成ビデオフレームデータ143は垂直表示期間Tvにおいて、水平表示期間Thの前半で1920ピクセル分の左目用ビデオフレームデータ141が送信された後、水平表示期間Thの後半で1920ピクセル分の右目用ビデオフレームデータ142が送信されるように構成される。
 ソース機器110は合成ビデオフレームデータ143を、図3のパケットフォーマットに従って複数のパケットに分割してシンク機器120に無線伝送する。このとき、左目用ビデオフレームデータ141を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0000から0x0438(0から1079)までの値に設定される。一方、右目用ビデオフレームデータ142を送信するときは、Hポジション23に格納される値は0x0780から0x0EFF(1920から3839)までの値に設定され、Vポジション24に格納される値は0x0000から0x0438(0から1079)までの値に設定される。なお、同一のフレーム内の左目用ビデオフレームデータ141及び右目用ビデオフレームデータ142に対応する各ビデオフレームナンバー22に格納される各値は、互いに同一に設定される。
 ここでは一例として、パケットボディ15はサブパケット18aからサブパケット18dで構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされるものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23及びVポジション24に格納される各値は以下のように設定され、順次伝送される。
第1のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0007;
第2のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x000c;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0011;
………;
第108のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x042E;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0430;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0433;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0435;
第109のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0780、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0780、Vポジション24=0x0007;
………;
第864のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x042E;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0780、Vポジション24=0x0430;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0433;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0780、Vポジション24=0x0435;
第865のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0007;
以降同様に続く.
 ここで、パーティションインデックス20には値0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 このように、ビデオフレーム毎に108個のパケットを用いて合成ビデオフレームデータ143がパケット伝送される。
 以上説明したように、本実施形態によれば、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するネットワークにおいて、非圧縮ビデオデータをパケット伝送するための各パケットのヘッダは、パケットに格納されたピクセルデータの分割情報を格納するパーティションインデックス20と、インターレース信号のトップとボトムを識別するデータを格納するインターレースフィールドインディケーション21と、パケットに格納されたピクセルデータのビデオフレーム番号を格納するビデオフレームナンバー22と、パケットに格納されたビデオデータの先頭ピクセルの水平位置情報を格納するHポジション23と、パケットに格納されたビデオデータの先頭ピクセルの垂直位置情報を格納するVポジション24とを含む。そして、ビデオデータが三次元データの場合に、左目用ビデオフレームデータ141と右目用ビデオフレームデータ142を合成して得られる合成ビデオフレームデータ143の水平表示期間Th内の水平位置データと垂直表示期間Tv内の垂直位置データとを、左目用ビデオフレームデータ141と右目用フレームデータ142とを識別するためのデータとして、それぞれHポジション23とVポジション24に格納する。このため、パケット伝送する左目用ビデオフレームデータ141と右目用ビデオフレームデータ142を識別することが可能となり、二次元のビデオデータを含むAVコンテンツデータと、三次元のビデオデータを含むAVコンテンツとを同一のパケットフォーマットで効率よく伝送することができる。
第7の実施形態.
 図11は、本発明の第7の実施形態に係る合成ビデオフレームデータ155と合成ビデオフレームデータ156の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第5の実施形態と比較して、合成ビデオフレームデータ155と合成ビデオフレームデータ156の生成方法のみが異なる。その他については、第5の実施形態と同様であるのでここでは動作の説明は省略する。
 図11に、VICが5であり、3Dストラクチャーがフレームパッキングを表すときの合成ビデオフレームデータ155と合成ビデオフレームデータ156のフォーマットを示す。図11において、左目用トップフィールドビデオフレームデータ151と右目用トップフィールドビデオフレームデータ152と左目用ボトムフィールドビデオフレームデータ153と右目用ボトムフィールドビデオフレームデータ154の水平有効画素数はそれぞれ1920ピクセルであり、垂直有効画素数はそれぞれ540ピクセルである。また、合成ビデオフレームデータ155及び合成ビデオフレームデータ156の水平画素数はそれぞれ1920ピクセルであり、垂直画素数はそれぞれ1080ピクセルである。さらに、左目用トップフィールドビデオフレームデータ151と右目用トップフィールドビデオフレームデータ152と左目用ボトムフィールドビデオフレームデータ153と右目用ボトムフィールドビデオフレームデータ154の垂直同期周波数は30Hzである。パケット処理回路113は、左目用トップフィールドビデオフレームデータ151と右目用トップフィールドビデオフレームデータ152とを合成ビデオフレームデータ155に合成し、左目用ボトムフィールドビデオフレームデータ153と右目用ボトムフィールドビデオフレームデータ154とを合成ビデオフレームデータ156に合成する。このとき、合成ビデオフレームデータ155は水平表示期間Thにおいて、垂直表示期間Tvの第1の期間で540ライン分の左目用トップフィールドビデオフレームデータ151が送信された後、垂直表示期間Tvの第2の期間で540ライン分の右目用トップフィールドビデオフレームデータ152が送信されるように構成される。次いで、合成ビデオフレームデータ156は、垂直表示期間Tvの第3の期間で540ライン分の左目用ボトムフィールドビデオフレームデータ153が送信された後、垂直表示期間Tvの第4の期間で540ライン分の右目用ボトムフィールドビデオフレームデータ154が送信されるように構成される。また、左目用トップフィールドビデオフレームデータ151の送信期間と右目用トップフィールドビデオフレームデータ152の送信期間との間にブランキング期間157が設けられ、右目用トップフィールドビデオフレームデータ152と左目用ボトムフィールドビデオフレームデータ153との間にブランキング期間158が設けられ、左目用ボトムフィールドビデオフレームデータ153の送信期間と右目用ボトムフィールドビデオフレームデータ154の送信期間との間にブランキング期間159が設けられる。なお、上述した第1~第4の期間及びブランキング期間157~159は、各垂直表示期間Tvの開始タイミングから終了タイミングまでの間に、第1の期間、ブランキング期間157、第2の期間、ブランキング期間158、第3の期間、ブランキング期間159、第4の期間の順序で配置される。
 ソース機器110は合成ビデオフレームデータ155及び合成ビデオフレームデータ156を、図3のパケットフォーマットに従って複数のパケットに分割してシンク機器120に無線伝送する。このとき、左目用トップフィールドビデオフレームデータ151を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0000から0x021B(0から539)までの値に設定される。また、右目用トップフィールドビデオフレームデータ152を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0233から0x044E(563から1102)までの値に設定される。さらに、左目用ボトムフィールドビデオフレームデータ153を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0465から0x0680(1125から1664)までの値に設定される。またさらに、右目用ボトムフィールドビデオフレームデータ154を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0698から0x08B3(1688から2227)までの値に設定される。また、第1の期間、ブランキング期間157を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x021Cから0x0232(540から562)までの値に設定される。さらに、第2の期間、ブランキング期間158を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x044Fから0x0464(1103から1124)までの値に設定される。さらに、第3の期間、ブランキング期間159を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0681から0x0697(1665から1687)までの値に設定される。なお、同一のフレーム内の左目用トップフィールドビデオフレームデータ151、右目用トップフィールドビデオフレームデータ152、左目用ボトムフィールドビデオフレームデータ153、及び右目用ボトムフィールドビデオフレームデータ154に対応する各ビデオフレームナンバー22に格納される各値は、互いに同一に設定される。
 ここでは一例として、パケットボディ15はサブパケット18aからサブパケット18dで構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされるものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23及びVポジション24に格納される各値は以下のように設定され、順次伝送される。
第1のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
第2のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0023;
………;
第56のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x044D;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0452;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0457;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x045C;
第57のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0461;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0466;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x046B;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0470;
 ………;
第111のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0899;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x089B;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x08A3;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x08A8;

第112のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x08AD;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x08B2;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0003;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0008;
 ………;
第891のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x089C;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x08A1;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x08A6;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x08AB;
第892のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x08B0;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0001;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0006;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000B;
以降同様に続く.
 ここで、パーティションインデックス20には値0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 このように、第1~第27のパケットにおいて第1のフレームの左目用トップフィールドビデオフレームデータ151がパケット伝送され、第28~第29のパケットにおいて第1の期間、ブランキング期間157が伝送され、第29~第56のパケットにおいて第1のフレームの右目用トップフィールドビデオフレームデータ152がパケット伝送され、第56~第57のパケットにおいて第2の期間、ブランキング期間158が伝送され、第58~第84のパケットにおいて第2のフレームの左目用ボトムフィールドビデオフレームデータ153がパケット伝送され、第84~第85のパケットにおいて第3の期間、ブランキング期間159が伝送され、第85~第112のパケットにおいて第2のフレームの右目用ボトムフィールドビデオフレームデータ154がパケット伝送され、ビデオフレーム毎に111個のパケットと、2個のサブパケットを用いて合成ビデオフレームデータ155及び合成ビデオフレームデータ156がパケット伝送される。
 以上説明したように、本実施形態によれば、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するネットワークにおいて、非圧縮ビデオデータをパケット伝送するための各パケットのヘッダは、パケットに格納されたピクセルデータの分割情報を格納するパーティションインデックス20と、インターレース信号のトップとボトムを識別するデータを格納するインターレースフィールドインディケーション21と、パケットに格納されたピクセルデータのビデオフレーム番号を格納するビデオフレームナンバー22と、パケットに格納されたビデオデータの先頭ピクセルの水平位置情報を格納するHポジション23と、パケットに格納されたビデオデータの先頭ピクセルの垂直位置情報を格納するVポジション24とを含む。さらに、ビデオデータが三次元データの場合に、左目用トップフィールドビデオフレームデータ151と右目用トップフィールドビデオフレームデータ152とを合成して得られる合成ビデオフレームデータ155と、左目用ボトムフィールドビデオフレームデータ153と右目用ボトムフィールドビデオフレームデータ154とを合成して得られる合成ビデオフレームデータ156の水平表示期間Th内の水平位置データと垂直表示期間Tv内の垂直位置データとを、左目用トップフィールドビデオフレームデータ151と、右目用トップフィールドビデオフレームデータ152と、左目用ボトムフィールドビデオフレームデータ153と、右目用ボトムフィールドビデオフレームデータ154と識別するためのデータとして、それぞれHポジション23とVポジション24に格納する。このため、パケット伝送する左目用トップフィールドビデオフレームデータ151と、右目用トップフィールドビデオフレームデータ152と、左目用ボトムフィールドビデオフレームデータ153と、右目用ボトムフィールドビデオフレームデータ154とを識別することが可能となり、二次元のビデオデータを含むAVコンテンツデータと、三次元のビデオデータを含むAVコンテンツとを同一のパケットフォーマットで効率よく伝送することができる。
第8の実施形態.
 図12は、本発明の第8の実施形態に係る合成ビデオフレームデータ163の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第5の実施形態と比較して、合成ビデオフレームデータ163の生成方法のみが異なる。その他については、第5の実施形態と同様であるのでここでは動作の説明は省略する。
 図12に、VICが16、3Dストラクチャーがサイドバイサイド(ハーフ)を表すときの合成ビデオフレームデータ43のフォーマットを示す。図12において、左目用ビデオフレームデータ161と右目用ビデオフレームデータ162の水平有効画素数はそれぞれ960ピクセルであり、垂直有効画素数はそれぞれ1080ピクセルである。また、合成ビデオフレームデータ163の水平画素数は1920ピクセルであり、垂直画素数は1080ピクセルである。さらに、左目用ビデオフレームデータ161と右目用ビデオフレームデータ162の垂直同期周波数64は60Hzである。パケット処理回路113は、左目用ビデオフレームデータ161と右目用ビデオフレームデータ162とを合成ビデオフレームデータ163に合成する。このとき、垂直表示期間Tvにおいて、水平表示期間Thの前半において960ピクセル分の左目用ビデオフレームデータ161が送信され、水平表示期間Thの後半において960ピクセル分の右目用ビデオフレームデータ162が送信される。
 ソース機器110は合成ビデオフレームデータ163を、図3のパケットフォーマットに従って複数のパケットに分割してシンク機器120に無線伝送する。このとき、左目用ビデオフレームデータ161を送信するときは、Hポジション23に格納される値は0x0000から0x03BF(0から959)までの値に設定され、Vポジション24に格納される値は0x0000から0x0438(0から1079)までの値に設定される。一方、右目用ビデオフレームデータ162を送信するときは、Hポジション23に格納される値は0x03C0から0x077F(960から1919)までの値に設定され、Vポジション24に格納される値は0x0000から0x0438(0から1079)までの値に設定される。なお、同一のフレーム内の左目用ビデオフレームデータ161及び右目用ビデオフレームデータ162に対応する各ビデオフレームナンバー22に格納される各値は、互いに同一に設定される。
 ここでは一例として、パケットボディ15はサブパケット18aからサブパケット18dで構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされるものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23及びVポジション24に格納される各値は以下のように設定され、順次伝送される。
第1のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
第2のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0023;
………;
第54のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0424;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0429;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x042E;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0433;
第55のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000f;
………;
第432のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0424;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0429;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x042E;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0433;
第433のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x000f;
以降同様に続く.
 ここで、パーティションインデックス20には値0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 このように、ビデオフレーム毎に54個のパケットを用いて合成ビデオフレームデータ3がパケット伝送される。
 以上説明したように、本実施形態によれば、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するネットワークにおいて、非圧縮ビデオデータをパケット伝送するための各パケットのヘッダは、パケットに格納されたピクセルデータの分割情報を格納するパーティションインデックス20と、インターレース信号のトップとボトムを識別するデータを格納するインターレースフィールドインディケーション21と、パケットに格納されたピクセルデータのビデオフレーム番号を格納するビデオフレームナンバー22と、パケットに格納されたビデオデータの先頭ピクセルの水平位置情報を格納するHポジション23と、パケットに格納されたビデオデータの先頭ピクセルの垂直位置情報を格納するVポジション24とを含む。そして、ビデオデータが三次元データの場合に、左目用ビデオフレームデータ161と右目用ビデオフレームデータ162を合成して得られる合成ビデオフレームデータ163の水平表示期間Th内の水平位置データと垂直表示期間Tv内の垂直位置データとを、左目用ビデオフレームデータ161と右目用ビデオフレームデータ162とを識別するためのデータとして、それぞれHポジション23とVポジション24に格納する。このため、パケット伝送する左目用ビデオフレームデータ161と右目用ビデオフレームデータ162を識別することが可能となり、二次元のビデオデータを含むAVコンテンツデータと、三次元のビデオデータを含むAVコンテンツとを同一のパケットフォーマットで効率よく伝送することができる。
第9の実施形態.
 図13は、本発明の第9の実施形態に係る合成ビデオフレームデータ95と合成ビデオフレームデータ96の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第5の実施形態と比較して、合成ビデオフレームデータ95と合成ビデオフレームデータ96の生成方法のみが異なる。その他については、第1の実施形態と同様であるのでここでは動作の説明は省略する。
 図13に、VICが5であり、3Dストラクチャーがフレームオルタネイティブを表すときの合成ビデオフレームデータ95と合成ビデオフレームデータ96のフォーマットを示す。図13において、垂直表示期間Tv1及びTv2は垂直同期信号の連続する3つの垂直同期期間間の各期間である。図13において、左目用トップフィールドビデオフレームデータ91と右目用トップフィールドビデオフレームデータ92と左目用ボトムフィールドビデオフレームデータ93と右目用ボトムフィールドビデオフレームデータ94の水平有効画素数はそれぞれ1920ピクセルであり、垂直有効画素数はそれぞれ540ピクセルである。また、合成ビデオフレームデータ95及び合成ビデオフレームデータ96の水平画素数はそれぞれ1920ピクセルであり、垂直画素数はそれぞれ1080ピクセルである。さらに、左目用トップフィールドビデオフレームデータ91と右目用トップフィールドビデオフレームデータ92、左目用ボトムフィールドビデオフレームデータ93と右目用ボトムフィールドビデオフレームデータ94の垂直同期周波数はそれぞれ60Hzである。パケット処理回路113は、左目用トップフィールドビデオフレームデータ91と右目用トップフィールドビデオフレームデータ92とを合成ビデオフレームデータ95に合成する。このとき、合成ビデオフレームデータ95は水平表示期間Thにおいて、垂直表示期間Tv1の前半で540ライン分の左目用トップフィールドビデオフレームデータ91が送信された後、垂直表示期間Tv2の後半で540ライン分の右目用トップフィールドビデオフレームデータ92が送信されるように構成される。また、左目用トップフィールドビデオフレームデータ91の送信期間と右目用トップフィールドビデオフレームデータ92の送信期間との間にブランキング期間97が設けられる。さらに、パケット処理回路113は、左目用ボトムフィールドビデオフレームデータ93と右目用ボトムフィールドビデオフレームデータ94とを合成ビデオフレームデータ96に合成する。このとき、合成ビデオフレームデータ96は水平表示期間Thにおいて、垂直表示期間Tv2の前半で540ライン分の左目用ボトムフィールドビデオフレームデータ93が送信された後、垂直表示期間Tv2の後半で540ライン分の右目用ボトムフィールドビデオフレームデータ94が送信されるように構成される。また、左目用ボトムフィールドビデオフレームデータ93の送信期間と右目用ボトムフィールドビデオフレームデータ94の送信期間との間にブランキング期間99が設けられる。
 ソース機器110は合成ビデオフレームデータ95及び合成ビデオフレームデータ96を、図3のパケットフォーマットに従って複数のパケットに分割してシンク機器120に無線伝送する。このとき、左目用トップフィールドビデオフレームデータ91又は左目用ボトムフィールドビデオフレームデータ93を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0000から0x021B(0から539)までの値に設定される。また、右目用トップフィールドビデオフレームデータ92又は右目用ボトムフィールドビデオフレームデータ94を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0233から0x044E(563から1102)までの値に設定される。また、第1の期間、ブランキング期間97と第3の期間、ブランキング期間99を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x021Cから0x0232(540から562)までの値に設定される。なお、同一のフレーム内の左目用トップフィールドビデオフレームデータ91及び右目用トップフィールドビデオフレームデータ92、に対応する各ビデオフレームナンバー22に格納される各値は互いに同一の奇数値に設定され、同一のフレーム内の左目用ボトムフィールドビデオフレームデータ93及び右目用ボトムフィールドビデオフレームデータ94に対応する各ビデオフレームナンバー22に格納される各値は、互いに同一の偶数値に設定される。
 ここでは一例として、パケットボディ15はサブパケット18aからサブパケット18dで構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされるものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23及びVポジション24に格納される各値は以下のように設定され、順次伝送される。

第1のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
第2のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0023;
………;
第55のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0438;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x043D;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0442;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0447;
第56のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x044C;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0007;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000C;
………;
第110のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0435;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x043A;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x043F;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0444;
第111のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0449;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x044E;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0004;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0009;
 ………;
第882のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0432;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0438;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x043D;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0442;
第883のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0447;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x044C;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0002;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0007;
以降同様に続く.
 ここで、パーティションインデックス20には値0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 このように、第1~第27のパケットにおいて第1のフレームの左目用トップフィールドビデオフレームデータ91がパケット伝送され、第28~第29のパケットにおいて第1の期間、ブランキング期間97が伝送され、第29~第56のパケットにおいて第1のフレームの右目用トップフィールドビデオフレームデータ92がパケット伝送され、第56~第83のパケットにおいて第2のフレームの左目用ボトムフィールドビデオフレームデータ93がパケット伝送され、第83~第84のパケットにおいて第3の期間、ブランキング期間99が伝送され、第84~第111のパケットにおいて第2のフレームの右目用ボトムフィールドビデオフレームデータ94がパケット伝送され、ビデオフレーム毎に55個のパケットと1個のサブパケットを用いて合成ビデオフレームデータ95及び合成ビデオフレームデータ96がパケット伝送される。
 以上説明したように、本実施形態によれば、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するネットワークにおいて、非圧縮ビデオデータをパケット伝送するための各パケットのヘッダは、パケットに格納されたピクセルデータの分割情報を格納するパーティションインデックス20と、インターレース信号のトップとボトムを識別するデータを格納するインターレースフィールドインディケーション21と、パケットに格納されたピクセルデータのビデオフレーム番号を格納するビデオフレームナンバー22と、パケットに格納されたビデオデータの先頭ピクセルの水平位置情報を格納するHポジション23と、パケットに格納されたビデオデータの先頭ピクセルの垂直位置情報を格納するVポジション24とを含む。さらに、ビデオデータが三次元データの場合に、左目用トップフィールドビデオフレームデータ91と右目用トップフィールドビデオフレームデータ92とを合成して得られる合成ビデオフレームデータ95と、左目用ボトムフィールドビデオフレームデータ93と右目用ボトムフィールドビデオフレームデータ94とを合成して得られる合成ビデオフレームデータ96の水平表示期間Th内の水平位置データと垂直表示期間Tv内の垂直位置とを、左目用トップフィールドビデオフレームデータ91と、右目用トップフィールドビデオフレームデータ92と、左目用ボトムフィールドビデオフレームデータ93と、右目用ボトムフィールドビデオフレームデータ94とを識別するためのデータとして、それぞれHポジション23とVポジション24に格納する。このため、パケット伝送する左目用トップフィールドビデオフレームデータ91と、右目用トップフィールドビデオフレームデータ92と、左目用ボトムフィールドビデオフレームデータ93と、右目用ボトムフィールドビデオフレームデータ94とを識別することが可能となり、二次元のビデオデータを含むAVコンテンツデータと、三次元のビデオデータを含むAVコンテンツとを同一のパケットフォーマットで効率よく伝送することができる。

第10の実施形態.
 図14は、本発明の第10の実施形態に係る合成ビデオフレームデータ173の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。また、図15~図16は、本発明の第10の実施形態に係るVICテーブル115t及び127tを示す表である。本実施形態は、第1の実施形態と比較して、合成ビデオフレームデータ173の大きさ及びVICテーブル115t及び127tにおいて割り当てられるVICの値のみが異なる。その他については、第1の実施形態と同様であるのでここでは動作の説明は省略する。
 本実施形態において、ソース機器110及びシンク機器120は、二次元データの複数のビデオフォーマット及び三次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードをそれぞれ含むVICテーブル115t及び127tを、メモリ115及び127にあらかじめ格納する。具体的には、図15~図16に示すように、VICの96から99は右目用ビデオフレームデータ172及び左目用ビデオフレームデータ171を含む三次元データの各ビデオフォーマットにそれぞれ割り当てられている。VICの96は、合成ビデオフレームデータ173の水平及び垂直画素数が1920x2160であり(左目用フレームデータ171の水平及び垂直画素数は1920x1080であり、右目用フレームデータ172の水平及び垂直画素数は1920x1080である。)、スキャン方法がプログレッシブスキャンであり、垂直同期周波数が23.97/24Hzであり、フレームシーケンシャル方式のビデオフォーマットに割り当てられている。また、VICの97は、合成ビデオフレームデータ173の水平及び垂直画素数が1920x2160(左目用フレームデータ171の水平及び垂直画素数は1920x1080であり、右目用フレームデータ172の水平及び垂直画素数(水平画素数x垂直画素数)は1920x1080である。)、スキャン方法がプログレッシブスキャンであり、垂直同期周波数が25Hzであり、フレームシーケンシャル方式のビデオフォーマットに割り当てられている。さらに、VICの98は、合成ビデオフレームデータ173の水平及び垂直画素数が1280x1440であり(左目用フレームデータ171の水平及び垂直画素数は1280x720であり、右目用フレームデータ172の水平及び垂直画素数は1280x720である。)、スキャン方法がプログレッシブスキャンであり、垂直同期周波数が59.94/60Hzであり、フレームシーケンシャル方式のビデオフォーマットに割り当てられている。またさらに、VICの99は、合成ビデオフレームデータ173の水平及び垂直画素数が1280x1440であり(左目用フレームデータ171の水平及び垂直画素数は1280x720であり、右目用フレームデータ172の水平及び垂直画素数は1280x720である。)、スキャン方法はプログレッシブスキャンであり、垂直同期周波数が50Hzであり、フレームシーケンシャル方式のビデオフォーマットに割り当てられている。その他のVICは、二次元の複数のビデオフォーマット及びリザーブ領域(予備)に割り当てられている。
 図14に、VICが98であるときの合成ビデオフレームデータ173のフォーマットを示す。図14において、左目用ビデオフレームデータ171と右目用ビデオフレームデータ172の水平有効画素数はそれぞれ1280ピクセルであり、垂直有効画素数はそれぞれ720ピクセルである。また、合成ビデオフレームデータ173の水平画素数は1280ピクセルであり、垂直画素数は1440ピクセルである。さらに、左目用ビデオフレームデータ171と右目用ビデオフレームデータ172の垂直同期周波数は59.94Hz又は60Hzである。パケット処理回路113は、左目用ビデオフレームデータ171と右目用ビデオフレームデータ172とを合成ビデオフレームデータ173に合成する。このとき、合成ビデオフレームデータ172は水平表示期間Thにおいて、垂直表示期間Tvの前半で720ライン分の左目用ビデオフレームデータ171が送信された後、垂直表示期間Tvの後半で720ライン分の右目用ビデオフレームデータ172が送信されるように構成される。ソース機器110は合成ビデオフレームデータ173を、図3のパケットフォーマットに従って複数のパケットに分割してシンク機器120に無線伝送する。
 ここでは一例として、パケットボディ15はサブパケット18aからサブパケット18dで構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1280=6400ピクセル分のビデオデータである。)がパッキングされるものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23及びVポジション24に格納される各値は以下のように設定され、順次伝送される。
第1のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
第2のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0023;
………;
第72のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x058c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0591;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0596;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x059b;
第73のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000f;
………;
第576のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x058c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0591;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0596;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x059b;
第577のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
以降同様に続く.
 ここで、パーティションインデックス20には値0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 このように、ビデオフレーム毎に72個のパケットを用いて合成ビデオフレームデータ173がパケット伝送される。左目用ビデオフレームデータ171と右目用ビデオフレームデータ172のビデオフレームナンバー22に格納される各値は互いに同一に設定される。また、左目用ビデオフレームデータ171を送信するときは、Hポジション23に格納される値は0x0000から0x04FF(0から1279)までの値に設定され、Vポジション24に格納される値は0x0000から0x02CF(0から719)までの値に設定される。さらに、右目用ビデオフレームデータ172を送信するときは、Hポジション23に格納される値は0x0000から0x04FF(0から1279)までの値に設定され、Vポジション24に格納される値は0x02D0から0x059F(720から1439)までの値に設定される。
 VICの値が98又は99であるときは(図15~図16参照。)、水平画素数が1280でありかつ垂直画素数が1440ピクセルである。このとき、各ビデオコントロール17a,17b,17c,17dに格納される値は以下のように設定される。
(a)左目用ビデオフレームデータ171のビデオフレームナンバー22に格納される値と、右目用ビデオフレームデータ172のビデオフレームナンバー22に格納される値とは同一の値に設定される。
(b)左目用ビデオフレームデータ171のHポジション23と、右目用ビデオフレームデータ172のHポジション23に格納される各値は、0から1279までの間の値に設定される。
(c)左目用ビデオフレームデータ171のVポジション24に格納される値は0から719までの値に設定され、右目用ビデオフレームデータ172のVポジション24に格納される値は720から1439までの値に設定される。
 以上説明したように、本実施形態によれば、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するネットワークにおいて、非圧縮ビデオデータをパケット伝送するための各パケットのヘッダは、パケットに格納されたピクセルデータの分割情報を格納するパーティションインデックス20と、インターレース信号のトップとボトムを識別するデータを格納するインターレースフィールドインディケーション21と、パケットに格納されたピクセルデータのビデオフレーム番号を格納するビデオフレームナンバー22と、パケットに格納されたビデオデータの先頭ピクセルの水平位置情報を格納するHポジション23と、パケットに格納されたビデオデータの先頭ピクセルの垂直位置情報を格納するVポジション24とを含む。さらに、ビデオデータが三次元データの場合に、左目用ビデオフレームデータ171と右目用ビデオフレームデータ172を合成して得られる合成ビデオフレームデータ173の水平表示期間Th内の水平位置データと垂直表示期間Tv内の垂直位置データとを、左目用ビデオフレームデータ171と右目用ビデオフレームデータ172とを識別するためのデータとして、それぞれHポジション23とVポジション24に格納したので、シンク機器120は受信したパケットのVポジション24に格納された値が0から719までの範囲であれば左目用ビデオフレームデータ171であると判断し、Vポジション24に格納された値が720から1439までの範囲であれば右目用ビデオフレームデータ172であると判断することが可能となり、二次元のビデオデータを含むAVコンテンツデータと、三次元のビデオデータを含むAVコンテンツとを同一のパケットフォーマットで効率よく伝送することができる。
 なお本実施形態において、左目用ビデオフレームデータ171と右目用ビデオフレームデータ172の各Vポジション24に格納される値は連続した値0から1439までの範囲内の値に設定された。しかしながら、本発明はこれに限らず、左目用ビデオフレームデータ171の各Vポジション24に格納される値を0から719までの値に設定し、ブランキング期間(スペース)を30ライン分だけ設けて、右目用ビデオフレームデータ172の各Vポジション24の値を連続させずに、750から1469までの値に設定してもよい。さらに、上記ブランキング期間において、オーディオデータ又はダミーデータなどのビデオデータ以外のデータを送信してもよい。
第11の実施形態.
 図17は、本発明の第11の実施形態に係る合成ビデオフレームデータ183の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第10の実施形態と比較して、合成ビデオフレームデータ173の水平画素数、垂直画素数及び垂直同期周波数のみが異なる。その他については、第10の実施形態と同様であるのでここでは動作の説明は省略する。
 図17に、VICが96であるときの合成ビデオフレームデータ183のフォーマットを示す。図17において、左目用ビデオフレームデータ181と右目用ビデオフレームデータ182の水平有効画素数はそれぞれ1920ピクセルであり、垂直有効画素数はそれぞれ1080ピクセルである。また、合成ビデオフレームデータ183の水平画素数は1920ピクセルであり、垂直画素数は2160ピクセルである。さらに、左目用ビデオフレームデータ181と右目用ビデオフレームデータ182の垂直同期周波数は23.97Hz又は24Hzである。パケット処理回路113は、左目用ビデオフレームデータ181と右目用ビデオフレームデータ182とを合成ビデオフレームデータ183に合成する。このとき、合成ビデオフレームデータ183は水平表示期間Thにおいて、垂直表示期間Tvの前半で1080ライン分の左目用ビデオフレームデータ181が送信された後、垂直表示期間Tvの後半で1080ライン分の右目用ビデオフレームデータ182が送信されるように構成される。ソース機器110は合成ビデオフレームデータ183を、図3のパケットフォーマットに従って複数のパケットに分割してシンク機器120に無線伝送する。
 ここでは一例として、パケットボディ15はサブパケット18aからサブパケット18dで構成され、各サブパケットには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされるものとする。この場合、各サブパケットに対応して設けられたビデオコントロール17a,17b,17c,17d内のインターレースフィールドインディケーション21、ビデオフレームナンバー22、Hポジション23及びVポジション24に格納される各値は以下のように設定され、順次伝送される。
第1のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
第2のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0023;
………;
第108のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x085c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0861;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0866;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x086b;
第109のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000f;
………;
第864のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x085c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0861;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0866;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x086b;
第865のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
以降同様に続く.
 ここで、パーティションインデックス20には値0b0(非サポート)が格納されると仮定した。また、伝送エラーによるパケットの再送はないものと仮定している。
 このように、ビデオフレーム毎に108個のパケットを用いて合成ビデオフレームデータ183がパケット伝送される。左目用ビデオフレームデータ181と右目用ビデオフレームデータ182のビデオフレームナンバー22は同じ値が設定される。また、左目用ビデオフレームデータ181を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0000から0x0437(0から1079)までの値に設定される。一方、右目用ビデオフレームデータ182を送信するときは、Hポジション23に格納される値は0x0000から0x077F(0から1919)までの値に設定され、Vポジション24に格納される値は0x0438から0x086F(1080から2159)までの値に設定される。
 VICの値が96又は97であるときは(図15~図16参照。)、水平画素数が1920でありかつ垂直画素数が2160ピクセルである。このとき、各ビデオコントロール17a,17b,17c,17dに格納される値は以下のように設定される。
(a)左目用ビデオフレームデータ181のビデオフレームナンバー22に格納される値と、右目用ビデオフレームデータ182のビデオフレームナンバー22に格納される値とは同一の値に設定される。
(b)左目用ビデオフレームデータ181のHポジション23と、右目用ビデオフレームデータ182のHポジション23に格納される各値は、0から1919までの間の値に設定される。
(c)左目用ビデオフレームデータ181のVポジション24に格納される値は0から1079までの値に設定され、右目用ビデオフレームデータ182のVポジション24に格納される値は1080から2159までの値に設定される。
 以上説明したように、本実施形態によれば、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するネットワークにおいて、非圧縮ビデオデータをパケット伝送するための各パケットのヘッダは、パケットに格納されたピクセルデータの分割情報を格納するパーティションインデックス20と、インターレース信号のトップとボトムを識別するデータを格納するインターレースフィールドインディケーション21と、パケットに格納されたピクセルデータのビデオフレーム番号を格納するビデオフレームナンバー22と、パケットに格納されたビデオデータの先頭ピクセルの水平位置情報を格納するHポジション23と、パケットに格納されたビデオデータの先頭ピクセルの垂直位置情報を格納するVポジション24とを含む。さらに、ビデオデータが三次元データの場合に、左目用ビデオフレームデータ181と右目用ビデオフレームデータ182を合成して得られる合成ビデオフレームデータ183の水平表示期間Th内の水平位置データと垂直表示期間Tv内の垂直位置とを、左目用ビデオフレームデータ181と右目用ビデオフレームデータ182とを識別するためのデータとして、それぞれHポジション23とVポジション24に格納する。このため、シンク機器120は受信したパケットのVポジション24に格納された値が0から1079の範囲であれば左目用ビデオフレームデータ181であると判断し、Vポジション24に格納された値が1080から2159の範囲であれば右目用ビデオフレームデータ182であると判断することが可能となり、二次元のビデオデータを含むAVコンテンツデータと、三次元のビデオデータを含むAVコンテンツとを同一のパケットフォーマットで効率よく伝送することができる。
 なお本実施形態において、左目用ビデオフレームデータ181と右目用ビデオフレームデータ182の各Vポジション24に格納される値は連続した値0から2159までの範囲内の値に設定された。しかしながら、本発明はこれに限らず、例えば、左目用ビデオフレームデータ181のVポジション24の値を0から1079までの値に設定し、ブランキング期間(スペース)を45ライン分だけ設けて、右目用ビデオフレームデータ182のVポジション24の値を連続させずに、1125から2204までの値に設定してもよい。さらに、上記ブランキング期間において、オーディオデータ又はダミーデータなどのビデオデータ以外のデータを送信してもよい。
 なお、上記第1~第9の実施形態において、VICの値は、例えば4(720p/59.94Hz)や19(720p/50Hz)などの他のVICの値であってもよい。また、上記各実施形態におけるVICの値及び各VICに割り当てられるビデオデータの出力仕様(ビデオフォーマット)は一例に過ぎず、上述したVIC及び出力仕様以外のものであってもよい。
 また、上記第5~第9の各実施形態において、3Dストラクチャーはフレームパッキング、サイドバイサイド(フル)、サイドバイサイド(ハーフ)又はフレームオルタナディブを表したが、ラインオルタネイティブ、L+depth及びL+depth+Gfx+G-depthなどの他のビデオストラクチャーを表してもよい。
 また、上記各実施形態において、サブパケット18aからサブパケット18dには垂直方向5ライン分のビデオデータ(すなわち、5×1920=9600ピクセル分のビデオデータである。)がパッキングされるものとしたが、1つのサブパケットに格納されるビデオデータのライン数は5以外の値であってもよい。
 さらに、上記各実施形態において、パケットボディ15はサブパケット18aからサブパケット18dで構成されるものとしたが、ビデオデータのサブパケット数は4以下であれば他の値であってもよい。
 またさらに、上記各実施形態において、ソース機器110は、ビデオデータが二次元データ及び三次元データのうちのいずれであるかを表すフォーマット情報をストリームスタート通知コマンドなどの所定の制御コマンドに挿入してシンク機器120に通知し、シンク機器120は、通知されたフォーマット情報に従って、ソース機器110からのビデオデータのパケットをデコードしてもよい。
 また、上記各実施形態において、ソース機器110とシンク機器120とをワイヤレスHDに準拠した無線伝送路で無線接続しているが、本発明はこれに限らず、ワイヤレスHD以外の無線通信規格に準拠した無線伝送路又は有線伝送ケーブルを用いてソース機器110とシンク機器120とを接続してもよい。この場合、ソース機器110は、伝送するビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、ビデオフレーム毎に、第1のビデオフレームデータと第2のビデオフレームデータとを合成ビデオフレームデータに合成し、合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された先頭ピクセルの水平位置情報及び垂直位置情報を、第1及び第2のビデオフレームデータを識別するための情報として挿入するように、合成ビデオフレームデータを所定のパケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成し、当該複数のパケットをシンク機器120に送信する。また、シンク機器120は、ソース機器110からのビデオデータのパケットに挿入された水平位置情報及び垂直位置情報に基づいて、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを識別する。
 さらに、上記各実施形態において、帯域管理部121bはシンク機器120のコントローラ121に設けられたが、本発明はこれに限らず、ソース機器110のコントローラ111又は他の機器に設けられてもよい。
 またさらに、上記各実施形態において、Hポジション23は水平表示期間Th内の水平位置データを格納し、Vポジション24は垂直表示期間Tv内の垂直位置データを格納した。しかしながら、本発明はこれに限らず、Hポジション23は水平表示期間Th内の水平位置情報を格納し、Vポジション24は垂直表示期間Tv内の垂直位置情報を格納してもよい。
 以上詳述したように、本発明に係るソース機器、シンク機器、通信システム及びビデオデータのパケット伝送方法によれば、ソース機器により、上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成し、上記生成された複数のパケットを上記シンク機器に送信し、シンク機器により、上記送信されたパケットを受信し、上記受信された複数のパケットに挿入された水平位置情報及び垂直位置情報に基づいて、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを識別するので、三次元データのビデオデータをリアルタイムで伝送できる。特に、従来技術に係るワイヤレスHDのビデオデータのパケットフォーマットを用いて、二次元データのビデオデータ及び三次元データのビデオデータを含むAVコンテンツデータを効率よく伝送できる。
 本発明は特に、例えば、ワイヤレスHDなどの無線通信規格に準拠した無線通信システムにおける非圧縮のAVコンテンツデータの伝送に利用できる。
1…左目用ビデオフレームデータ、
2…右目用ビデオフレームデータ、
3…合成ビデオフレームデータ、
11…HRPプリアンブル、
12…HRPヘッダ、
13…MACヘッダ、
14…HCS、
15…パケットボディ、
16…ビームトラッキング、
17a~17d…ビデオコントロール、
18a~18d…サブパケット、
20…パーティションインデックス、
21…インターレースフィールドインディケーション、
22…ビデオフレームナンバー、
23…Hポジション、
24…Vポジション、
41…左目用ビデオフレームデータ、
42…右目用ビデオフレームデータ、
43…合成ビデオフレームデータ、
51…左目用トップビデオフレームデータ、
52…右目用トップビデオフレームデータ、
53…左目用ボトムビデオフレームデータ、
54…右目用ボトムビデオフレームデータ、
55…合成ビデオフレームデータ、
61…左目用ビデオフレームデータ、
62…右目用ビデオフレームデータ、
63…合成ビデオフレームデータ、
91…左目用トップビデオフレームデータ、
92…右目用トップビデオフレームデータ、
93…左目用ボトムビデオフレームデータ、
94…右目用ボトムビデオフレームデータ、
95…合成ビデオフレームデータ、
96…合成ビデオフレームデータ、
97,99…ブランキング期間、
110…ソース機器、
111…コントローラ、
112…映像音声再生装置、
113…パケット処理回路、
114…パケット無線送受信回路、
115…メモリ、
115t…VICテーブル、
116…アンテナ、
120…シンク機器、
121…コントローラ、
122…パケット無線送受信回路、
123…パケット処理回路、
124…映像音声処理回路、
125…スピーカ、
126…ディスプレイ、
127…メモリ、
127t…VICテーブル、
128…アンテナ、
141…左目用ビデオフレームデータ、
142…右目用ビデオフレームデータ、
143…合成ビデオフレームデータ、
151…左目用トップビデオフレームデータ、
152…右目用トップビデオフレームデータ、
153…左目用ボトムビデオフレームデータ、
154…右目用ボトムビデオフレームデータ、
155…合成ビデオフレームデータ、
156…合成ビデオフレームデータ、
157~159…ブランキング期間、
161…左目用ビデオフレームデータ、
162…右目用ビデオフレームデータ、
163…合成ビデオフレームデータ、
171…左目用ビデオフレームデータ、
172…右目用ビデオフレームデータ、
173…合成ビデオフレームデータ、
181…左目用ビデオフレームデータ、
182…右目用ビデオフレームデータ、
183…合成ビデオフレームデータ、
201…左目用ビデオフレームデータ、
202…右目用ビデオフレームデータ、
203…合成ビデオフレームデータ、
209…ブランキング期間。

Claims (20)

  1.  シンク機器にビデオデータを所定のパケットフォーマットのビデオフレームを用いて送信するソース機器において、
     上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成する第1のパケット処理手段と、
     上記生成された複数のパケットを上記シンク機器に送信する送信手段とを備えたことを特徴とするソース機器。
  2.  上記第1のパケット処理手段は、上記ビデオフレームの水平表示期間において、垂直表示期間の前半で所定のライン数の第1のビデオフレームデータを送信した後に、上記垂直表示期間の後半で上記所定のライン数の第2のビデオフレームデータを送信するように、上記合成ビデオフレームデータを構成することを特徴とする請求項1記載のソース機器。
  3.  上記第1のパケット処理手段は、上記所定のライン数の第1のビデオフレームデータの送信期間と上記所定のライン数の第2のビデオフレームデータの送信期間との間に所定のブランキング期間を設けたことを特徴とする請求項2記載のソース機器。
  4.  上記ビデオデータが、上記三次元データと第3のビデオフレームデータを含む二次元データとのうちのいずれであるかを表すフォーマット情報を所定の制御コマンドに挿入して、上記シンク機器に送信する制御手段を備えたことを特徴とする請求項1から3までのうちのいずれか1つの請求項記載のソース機器。
  5.  第3のビデオフレームデータを含む二次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記三次元データの複数のビデオストラクチャーを識別するための3Dストラクチャーとを含む第1のビデオフォーマット識別コードテーブルをあらかじめ格納した第1の記憶手段と、
     上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを上記シンク機器に送信する制御手段とを備えたことを特徴とする請求項1から3までのうちのいずれか1つの請求項記載のソース機器。
  6.  (a)第3のビデオフレームデータを含む二次元データの複数のビデオフォーマット及び(b)上記三次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードを含む第1のビデオフォーマット識別コードテーブルをあらかじめ格納した第1の記憶手段と、
     上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを上記シンク機器に送信する制御手段とを備えたことを特徴とする請求項1から3までのうちのいずれか1つの請求項記載のソース機器。
  7.  ビデオデータを所定のパケットフォーマットのビデオフレームを用いて送信するソース機器から上記ビデオデータを受信するシンク機器において、
     上記ソース機器は、
     上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成する第1のパケット処理手段と、
     上記生成された複数のパケットを上記シンク機器に送信する送信手段とを備え、
     上記シンク機器は、
     上記送信されたパケットを受信し、上記受信された複数のパケットに挿入された水平位置情報及び垂直位置情報に基づいて、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを識別する第2のパケット処理手段を備えたことを特徴とするシンク機器。
  8.  上記第2のパケット処理手段は、上記ソース機器から、上記ビデオデータが上記三次元データと第3のビデオフレームデータを含む二次元データとのうちのいずれであるかを表すフォーマット情報を受信し、上記受信された複数のパケットを上記受信されたフォーマット情報に従ってデコードすることを特徴とする請求項7記載のシンク機器。
  9.  第3のビデオフレームデータを含む二次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記三次元データの複数のビデオストラクチャーを識別するための3Dストラクチャーとを含む第2のビデオフォーマット識別コードテーブルをあらかじめ格納した第2の記憶手段をさらに備え、
     上記第2のパケット処理手段は、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを受信し、上記受信されたビデオフォーマット識別コード及び3Dストラクチャーに基づいて上記第2のビデオフォーマット識別コードテーブルを参照して、ビデオフォーマット及びビデオストラクチャーを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマット及びビデオストラクチャーに従ってデコードすることを特徴とする請求項7記載のシンク機器。
  10.  (a)第3のビデオフレームデータを含む二次元データの複数のビデオフォーマット及び(b)上記三次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードを含む第2のビデオフォーマット識別コードテーブルをあらかじめ格納した第2の記憶手段をさらに備え、
     上記第2のパケット処理手段は、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを受信し、上記受信されたビデオフォーマット識別コードに基づいて上記第2のビデオフォーマット識別コードテーブルを参照してビデオフォーマットを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマットに従ってデコードすることを特徴とする請求項7記載のシンク機器。
  11.  請求項1から3までのうちのいずれか1つの請求項記載のソース機器と、
     請求項7記載のシンク機器とを備えたことを特徴とする通信システム。
  12.  請求項4記載のソース機器と、
     請求項8記載のシンク機器とを備えたことを特徴とする通信システム。
  13.  請求項5記載のソース機器と、
     請求項9記載のシンク機器とを備えたことを特徴とする通信システム。
  14.  請求項6記載のソース機器と、
     請求項10記載のシンク機器とを備えたことを特徴とする通信システム。
  15.  ソース機器からシンク機器にビデオデータを所定のパケットフォーマットのビデオフレームを用いて送信するビデオデータのパケット伝送方法において、
     上記ソース機器により、上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成する第1のパケット処理ステップと、
     上記ソース機器により、上記生成された複数のパケットを上記シンク機器に送信する送信ステップと、
     上記シンク機器により、上記送信されたパケットを受信し、上記受信された複数のパケットに挿入された水平位置情報及び垂直位置情報に基づいて、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを識別する第2のパケット処理ステップとを含むことを特徴とするビデオデータのパケット伝送方法。
  16.  上記第1のパケット処理ステップは、上記ビデオフレームの水平表示期間において、垂直表示期間の前半で所定のライン数の第1のビデオフレームデータを送信した後に、上記垂直表示期間の後半で上記所定のライン数の第2のビデオフレームデータを送信するように、上記合成ビデオフレームデータを構成するステップを含むこと特徴とする請求項15記載のビデオデータのパケット伝送方法。
  17.  上記第1のパケット処理ステップは、上記所定のライン数の第1のビデオフレームデータの送信期間と上記所定のライン数の第2のビデオフレームデータの送信期間との間に所定のブランキング期間を設けるステップを含むこと特徴とする請求項16記載のビデオデータのパケット伝送方法。
  18.  上記ソース機器により、上記ビデオデータが上記三次元データと第3のビデオフレームデータを含む二次元データとのうちのいずれであるかを表すフォーマット情報を所定の制御コマンドに挿入して、上記シンク機器に送信する制御ステップをさらに含み、
     上記第2のパケット処理ステップは、上記ソース機器から、上記フォーマット情報を受信し、上記受信された複数のパケットを上記受信されたフォーマット情報に従ってデコードするステップを含むことを特徴とする請求項15から17までのうちのいずれか1つの請求項記載のビデオデータのパケット伝送方法。
  19.  上記ソース機器により、第3のビデオフレームデータを含む二次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記三次元データの複数のビデオストラクチャーを識別するための3Dストラクチャーとを含む第1のビデオフォーマット識別コードテーブルを第1の記憶手段にあらかじめ格納するステップと、
     上記シンク機器により、上記ビデオフォーマット識別コード及び上記3Dストラクチャーを含む第2のビデオフォーマット識別コードテーブルを第2の記憶手段にあらかじめ格納するステップと、
     上記ソース機器により、上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを上記シンク機器に送信する制御ステップとをさらに含み、
     上記第2のパケット処理ステップは、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを受信し、上記受信されたビデオフォーマット識別コード及び3Dストラクチャーに基づいて上記第2のビデオフォーマット識別コードテーブルを参照して、ビデオフォーマット及びビデオストラクチャーを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマット及びビデオストラクチャーに従ってデコードするステップを含むことを特徴とする請求項15から17までのうちのいずれか1つの請求項記載のビデオデータのパケット伝送方法。
  20.  上記ソース機器により、(a)第3のビデオフレームデータを含む二次元データの複数のビデオフォーマット及び(b)上記三次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードを含む第1のビデオフォーマット識別コードテーブルを第1の記憶手段にあらかじめ格納するステップと、
     上記シンク機器により、上記ビデオフォーマット識別コードを含む第2のビデオフォーマット識別コードテーブルを第2の記憶手段にあらかじめ格納するステップと、
     上記ソース機器により、上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを上記シンク機器に送信する制御ステップとをさらに含み、
     上記第2のパケット処理ステップは、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを受信し、上記受信されたビデオフォーマット識別コードに基づいて上記第2のビデオフォーマット識別コードテーブルを参照してビデオフォーマットを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマットに従ってデコードするステップを含むことを特徴とする請求項15から17までのうちのいずれか1つの請求項記載のビデオデータのパケット伝送方法。
PCT/JP2009/007120 2009-05-14 2009-12-22 ビデオデータのパケット伝送方法 WO2010131313A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011513135A JP5460702B2 (ja) 2009-05-14 2009-12-22 ビデオデータのパケット伝送方法
US13/318,930 US8953017B2 (en) 2009-05-14 2009-12-22 Source device, sink device, communication system and method for wirelessly transmitting three-dimensional video data using packets

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2009117800 2009-05-14
JP2009-117800 2009-05-14
JP2009118982 2009-05-15
JP2009-118982 2009-05-15
JP2009-210416 2009-09-11
JP2009210416 2009-09-11

Publications (1)

Publication Number Publication Date
WO2010131313A1 true WO2010131313A1 (ja) 2010-11-18

Family

ID=43084705

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/007120 WO2010131313A1 (ja) 2009-05-14 2009-12-22 ビデオデータのパケット伝送方法

Country Status (3)

Country Link
US (1) US8953017B2 (ja)
JP (1) JP5460702B2 (ja)
WO (1) WO2010131313A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012065160A (ja) * 2010-09-16 2012-03-29 Sony Computer Entertainment Inc 動画像処理装置および動画像処理方法
US20130033491A1 (en) * 2011-08-04 2013-02-07 Dolby Laboratories Licensing Corporation Method and Apparatus for Full Resolution 3D Display
ITTO20120134A1 (it) * 2012-02-16 2013-08-17 Sisvel Technology Srl Metodo, apparato e sistema di impacchettamento di frame utilizzanti un nuovo formato "frame compatible" per la codifica 3d.

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6467822B2 (ja) * 2014-08-29 2019-02-13 セイコーエプソン株式会社 表示システム、送信装置、及び、表示システムの制御方法
US10332296B2 (en) * 2016-07-05 2019-06-25 Ubitus Inc. Overlaying multi-source media in VRAM
US20180130443A1 (en) * 2016-11-04 2018-05-10 Nausheen Ansari Techniques for managing transmission and display of a display data stream

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746631A (ja) * 1993-07-28 1995-02-14 Sony Corp 立体映像表示装置
JP2005006114A (ja) * 2003-06-12 2005-01-06 Sharp Corp 放送データ送信装置、放送データ送信方法および放送データ受信装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5767898A (en) * 1994-06-23 1998-06-16 Sanyo Electric Co., Ltd. Three-dimensional image coding by merger of left and right images
KR20000075982A (ko) 1997-03-07 2000-12-26 다카노 야스아키 디지탈 방송 수신기 및 디스플레이 장치
JPH10257525A (ja) 1997-03-07 1998-09-25 Sanyo Electric Co Ltd ディジタル放送受信機
JP2002095018A (ja) 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法
JP3789794B2 (ja) * 2001-09-26 2006-06-28 三洋電機株式会社 立体画像処理方法、装置、およびシステム
KR100454194B1 (ko) * 2001-12-28 2004-10-26 한국전자통신연구원 다중 디스플레이 방식을 지원하는 양안식 동영상 부호화/복호화 장치 및 그 방법
US7017144B2 (en) * 2002-06-17 2006-03-21 Microsoft Corporation Combined image views and method of creating images
US6947954B2 (en) * 2002-06-17 2005-09-20 Microsoft Corporation Image server store system and method using combined image views
EP1519582A4 (en) 2002-06-28 2007-01-31 Sharp Kk Image data delivery system, image data sending device therefor and image data receiving device therefor
KR100813961B1 (ko) 2005-06-14 2008-03-14 삼성전자주식회사 영상 수신장치
KR100828358B1 (ko) 2005-06-14 2008-05-08 삼성전자주식회사 영상 디스플레이 모드 전환 방법, 장치, 및 그 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
US20070230461A1 (en) 2006-03-29 2007-10-04 Samsung Electronics Co., Ltd. Method and system for video data packetization for transmission over wireless channels
WO2007136166A1 (en) * 2006-05-23 2007-11-29 Lg Electronics Inc. Digital broadcasting system and method of processing data
US8279784B2 (en) 2006-11-01 2012-10-02 Sibeam, Inc. Wireless HD AV packet format
US8306060B2 (en) 2006-11-07 2012-11-06 Samsung Electronics Co., Ltd. System and method for wireless communication of uncompressed video having a composite frame format
US8749615B2 (en) * 2007-06-07 2014-06-10 Reald Inc. Demultiplexing for stereoplexed film and video applications
US8471893B2 (en) * 2007-06-26 2013-06-25 Samsung Electronics Co., Ltd. Method and apparatus for generating stereoscopic image bitstream using block interleaved method
US8339967B2 (en) * 2007-09-18 2012-12-25 Samsung Electronics Co., Ltd. Method and apparatus for generating data frame
KR101632076B1 (ko) * 2009-04-13 2016-06-21 삼성전자주식회사 우선순위에 따른 스테레오스코픽 영상 데이터의 전송 장치 및 방법
JP5367814B2 (ja) * 2009-05-14 2013-12-11 パナソニック株式会社 映像データの伝送方法
WO2010131314A1 (ja) * 2009-05-14 2010-11-18 パナソニック株式会社 ビデオデータの伝送方法
KR101286912B1 (ko) * 2009-12-18 2013-07-16 한국전자통신연구원 3차원 저장장치를 이용한 가변길이 패킷의 fec 인코딩 및 fec 디코딩 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0746631A (ja) * 1993-07-28 1995-02-14 Sony Corp 立体映像表示装置
JP2005006114A (ja) * 2003-06-12 2005-01-06 Sharp Corp 放送データ送信装置、放送データ送信方法および放送データ受信装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"High-Definition Multimedia Interface Specification Version 1.4 Extraction of 3D Signaling Portion", HDMI LICENSING LLC, 2 February 2010 (2010-02-02) *
"WirelessHD Specification Version 1.0 Overview", WIRELESSHD LLC, 9 October 2007 (2007-10-09) *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012065160A (ja) * 2010-09-16 2012-03-29 Sony Computer Entertainment Inc 動画像処理装置および動画像処理方法
US9172941B2 (en) 2010-09-16 2015-10-27 Sony Corporation Moving image processing device and moving image processing method
US20130033491A1 (en) * 2011-08-04 2013-02-07 Dolby Laboratories Licensing Corporation Method and Apparatus for Full Resolution 3D Display
US9338445B2 (en) * 2011-08-04 2016-05-10 Dolby Laboratories Licensing Corporation Method and apparatus for full resolution 3D display
ITTO20120134A1 (it) * 2012-02-16 2013-08-17 Sisvel Technology Srl Metodo, apparato e sistema di impacchettamento di frame utilizzanti un nuovo formato "frame compatible" per la codifica 3d.
WO2013121391A3 (en) * 2012-02-16 2014-02-13 S.I.Sv.El Societa'italiana Per Lo Sviluppo Dell'elettronica S.P.A. Frame packing method, apparatus ans system using a new 3d coding "frame compatible" format

Also Published As

Publication number Publication date
US8953017B2 (en) 2015-02-10
JPWO2010131313A1 (ja) 2012-11-01
US20120044325A1 (en) 2012-02-23
JP5460702B2 (ja) 2014-04-02

Similar Documents

Publication Publication Date Title
JP5351960B2 (ja) ビデオデータの伝送方法
JP5367814B2 (ja) 映像データの伝送方法
JP5338166B2 (ja) 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
EP2391139B1 (en) 3D image data transmission and reception
WO2010026736A1 (ja) 立体映像伝送システム、映像表示装置および映像出力装置
JP5460530B2 (ja) 表示システム、表示装置、及び中継装置
US7839896B2 (en) Video transmission system
JP5089493B2 (ja) デジタル映像データ送信装置、デジタル映像データ受信装置、デジタル映像データ伝送システム、デジタル映像データ送信方法、デジタル映像データ受信方法、およびデジタル映像データ伝送方法
JP5460702B2 (ja) ビデオデータのパケット伝送方法
JP2009135614A (ja) 送信装置、受信装置、通信システム、送信方法、受信方法及びそれらのプログラム
US20130141534A1 (en) Image processing device and method
JP5655393B2 (ja) 画像データ送信装置、画像データ送信装置の制御方法、画像データ送信方法および画像データ受信装置
JP2013062839A (ja) 映像伝送システム、映像入力装置および映像出力装置
JP5775200B2 (ja) 受信装置及び受信方法
JP2012060205A (ja) 表示システム、表示装置、及び中継装置
JP6098678B2 (ja) 送信方法および送信装置
JP2013229885A (ja) 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
JP5621944B2 (ja) 送信装置および送信方法
JP5583866B2 (ja) 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
JP2015029331A (ja) 送受信システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09844587

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13318930

Country of ref document: US

Ref document number: 2011513135

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09844587

Country of ref document: EP

Kind code of ref document: A1