WO2010131313A1 - ビデオデータのパケット伝送方法 - Google Patents
ビデオデータのパケット伝送方法 Download PDFInfo
- Publication number
- WO2010131313A1 WO2010131313A1 PCT/JP2009/007120 JP2009007120W WO2010131313A1 WO 2010131313 A1 WO2010131313 A1 WO 2010131313A1 JP 2009007120 W JP2009007120 W JP 2009007120W WO 2010131313 A1 WO2010131313 A1 WO 2010131313A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- video
- video frame
- data
- packet
- frame data
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
Definitions
- the present invention relates to a packet transmission method of video data, a source device that transmits the video data, a sink device that receives the video data, and a communication system including the source device and the sink device, and more particularly, video frame data for the right eye.
- 3D also referred to as 3D or stereoscopic
- video data packet transmission method including first and second video frame data such as left-eye video frame data, a source device for transmitting the video data
- the present invention relates to a sink device that receives video data, and a communication system including the source device and the sink device.
- Wireless HD Wireless HD
- AV Audio and Visual
- Wireless HD is for viewing high-definition video data stored in a source device such as a digital video recorder, set-top box, or personal computer on a sink device such as a high-definition TV without connecting the source device to the sink device.
- a source device such as a digital video recorder, set-top box, or personal computer on a sink device such as a high-definition TV without connecting the source device to the sink device.
- bidirectional control signals are included, control is performed so that the TV and the digital video recorder are linked, and a home theater is configured using a plurality of AV devices to control these AV devices in a centralized manner. Protocols for these controls can be defined.
- DTCP Digital Transmission Content Protection
- FIG. 18 is a diagram showing a frame format of video data in wireless HD according to the prior art.
- each packet of video data includes an HRP (High Rate Physical Layer) preamble 11, an HRP header 12, a MAC (Medium Access Control) header 13, an HCS (Header Check Sequence) 14, a packet body 15, and the like.
- beam tracking 16 the packet body 15 can be divided into a maximum of seven subpackets, but in FIG. 18, it is divided into four subpackets.
- the MAC header 13 includes a 24-byte video header 17, and the video header 17 has a size of 5 bytes and is provided with four video controls provided corresponding to each subpacket included in the packet body.
- each video control 17a, 17b, 17c, 17d has a 4-bit partition index 20, a 1-bit interlace field indication (also referred to as an interlace indication) 21, a 3-bit video frame number 22, and 16 It consists of a bit H position 23P and a 16 bit V position 24P.
- the HRP preamble 11 is a synchronization pattern portion positioned at the head of the packet in order to demodulate the HRP signal that is a burst signal
- the HRP header 12 is a header portion that stores control information of the physical layer (Physical Layer) of the wireless HD
- the MAC header 13 is a header portion for storing control information of the MAC layer of the wireless HD
- the HCS 14 is an error detection portion for storing data for error detection of the HRP header 12 and the MAC header 13
- the packet body Reference numeral 15 denotes a payload portion packed with video data (divided into a maximum of 7 subpackets).
- a beam tracking 16 stores a control data portion for storing control data for causing the beam direction of the HRP signal to follow between devices. It is.
- the video header 17 is a header portion that stores control information regarding the video data of the packet body 15.
- each video control 17a, 17b, 17c, 17d is a header part for storing format information regarding each video data stored in the four subpackets of the packet body 15, and the video playback time 17e is a video of the packet body 15.
- the partition index 20 stores division information of pixel data related to video data stored in each subpacket of the packet body 15, and the interlace field indication 21 stores interlace data related to video data of each subpacket stored in the packet body 15.
- Data for identifying the top and bottom of the signal is stored
- the video frame number 22 stores the video frame number of the pixel data relating to the video data of each subpacket stored in the packet body 15, and the H position 23 P is stored in the packet body 15.
- the horizontal position information of the first pixel relating to the video data of each stored subpacket is stored
- the V position 24P is the first pixel related to the video data stored in each subpacket of the packet body 15.
- a packet transmission method for video data configured as described above will be described.
- the source device and the sink device are wirelessly connected to each other using a 60 GHz band LRP (Low Rate PHY) signal.
- Uncompressed video data is time-division-transmitted from the source device to the sink device using an HRP (High Rate PHY) signal capable of high-speed transmission of 3 Gbps or higher.
- HRP High Rate PHY
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23P, and the V position 24P in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows.
- the video data is sequentially transmitted.
- a numerical value starting from 0x represents a hexadecimal number.
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23P, and the V position 24P in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. The video data is sequentially transmitted.
- the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
- Patent Documents 1 to 3 and Non-Patent Document 1 disclose wireless HD packet formats according to the related art.
- the video header 17 is composed of video controls 17a, 17b, 17c and 17d and a video playback time 17e, and each video control 17a, 17b, 17c and 17d is a partition. It is composed of an index 20, an interlaced field indication 21, a video frame number 22, an H position 23P, and a V position 24P, and the video data is two-dimensional (2D or flat) including one frame data. It was assumed that it was content data (hereinafter referred to as two-dimensional data). Therefore, when the video data is three-dimensional content data (hereinafter referred to as three-dimensional data) including first and second video frame data such as right-eye video frame data and left-eye video frame data, the left-eye.
- the video frame data for video and the video frame data for right eye cannot be identified by the source device and the sink device, and there is a problem that the video data cannot be transmitted.
- each of Patent Documents 4 to 7 discloses a transmission method of the above three-dimensional data, but does not disclose a specific configuration of a packet when transmitting the three-dimensional data in a packet.
- the object of the present invention is to solve the above-mentioned problems, and packet transmission of video data capable of transmitting three-dimensional video data including first and second video frame data such as right-eye video frame data and left-eye video frame data.
- a method a source device that transmits the video data, a sink device that receives the video data, and a communication system including the source device and the sink device.
- the source device is: In a source device that transmits video data to a sink device using a video frame of a predetermined packet format,
- the video data is three-dimensional data including first video frame data and second video frame data, for each video frame, the first video frame data and the second video frame data In the horizontal display period of the first pixel of the synthesized video frame data stored in the packet in the header of each packet for transmitting the synthesized video frame data.
- the composite video frame data is divided into a plurality of packets according to the packet format so that vertical position information within a period is inserted as information for identifying the first and second video frame data.
- First packet processing means for generating a packet
- Transmission means for transmitting the plurality of generated packets to the sink device.
- the first packet processing unit transmits the first video frame data having a predetermined number of lines in the first half of the vertical display period in the horizontal display period of the video frame, and then performs the vertical display.
- the synthesized video frame data is configured to transmit the second video frame data having the predetermined number of lines in the latter half of the period.
- the first packet processing means may be configured to transmit a first video frame data having a predetermined number of lines between a transmission period of the first video frame data having a predetermined number of lines and a transmission period of the second video frame data having the predetermined number of lines. Is provided with a predetermined blanking period.
- format information indicating whether the video data is the three-dimensional data or the two-dimensional data including the third video frame data is inserted into a predetermined control command. And a control means for transmitting to the sink device.
- a video format identification code for identifying a plurality of video formats of the two-dimensional data including the third video frame data, and a 3D structure for identifying the plurality of video structures of the three-dimensional data
- First storage means for storing in advance a first video format identification code table including: Referring to the first video format identification code table, a video format identification code for identifying the video format of the video data and a 3D structure for identifying the video structure of the video data are stored in the sink device. And a control means for transmitting.
- the source device further includes (a) a plurality of video formats of the two-dimensional data including the third video frame data and (b) a video format identification code for identifying the plurality of video formats of the three-dimensional data.
- First storage means for storing a first video format identification code table in advance;
- Control means for transmitting a video format identification code for identifying the video format of the video data to the sink device with reference to the first video format identification code table.
- a sink device is a sink device that receives the video data from a source device that transmits video data using a video frame of a predetermined packet format.
- the source device is When the video data is three-dimensional data including first video frame data and second video frame data, for each video frame, the first video frame data and the second video frame data In the horizontal display period of the first pixel of the synthesized video frame data stored in the packet in the header of each packet for transmitting the synthesized video frame data.
- the composite video frame data is divided into a plurality of packets according to the packet format so that vertical position information within a period is inserted as information for identifying the first and second video frame data.
- First packet processing means for generating a packet; Transmission means for transmitting the generated plurality of packets to the sink device, The sink device The transmitted packet is received, and the first video frame data and the second video frame data are identified based on horizontal position information and vertical position information inserted into the received plurality of packets.
- the second packet processing means is provided.
- the second packet processing means may determine whether the video data is the three-dimensional data or the two-dimensional data including the third video frame data from the source device.
- the format information is received, and the received plurality of packets are decoded according to the received format information.
- a video format identification code for identifying a plurality of video formats of two-dimensional data including third video frame data, and a 3D structure for identifying a plurality of video structures of the three-dimensional data
- a second storage means for storing a second video format identification code table including The second packet processing means receives a video format identification code for identifying the video format of the video data and a 3D structure for identifying the video structure of the video data from the source device, and Referring to the second video format identification code table based on the received video format identification code and 3D structure, the video format and the video structure are identified, and the received plurality of packets are identified as the identified video format. And decoding according to the video structure.
- a plurality of video formats of two-dimensional data including third video frame data and (b) a video format identification code for identifying a plurality of video formats of the three-dimensional data.
- a second storage means for storing in advance a second video format identification code table, The second packet processing means receives a video format identification code for identifying a video format of the video data from the source device, and the second video format based on the received video format identification code
- a video format is identified with reference to an identification code table, and the received plurality of packets are decoded according to the identified video format.
- a communication system includes the source device and the sink device.
- a video data packet transmission method for transmitting video data from a source device to a sink device using a video frame of a predetermined packet format.
- the video data is three-dimensional data including first video frame data and second video frame data by the source device, the first video frame data and the second video data for each video frame.
- the video frame data is synthesized with the synthesized video frame data, and the header of each packet for transmitting the synthesized video frame data is displayed horizontally in the horizontal display period of the first pixel of the synthesized video frame data stored in the packet.
- the synthesized video frame data is divided into a plurality of packets according to the packet format so that the position information and the vertical position information within the vertical display period are inserted as information for identifying the first and second video frame data.
- a first packet processing step for generating the plurality of packets A transmission step of transmitting the plurality of generated packets to the sink device by the source device;
- the sink device receives the transmitted packet, and based on the horizontal position information and the vertical position information inserted in the received plurality of packets, the first video frame data and the second video frame And a second packet processing step for identifying the data.
- the first packet processing step may include, in the horizontal display period of the video frame, after transmitting the first video frame data having a predetermined number of lines in the first half of the vertical display period. And the step of configuring the composite video frame data to transmit the second video frame data of the predetermined number of lines in the second half of the vertical display period.
- the first packet processing step includes the transmission period of the first video frame data having the predetermined number of lines and the transmission of the second video frame data having the predetermined number of lines. Including a step of providing a predetermined blanking period with the period.
- the source information includes format information indicating whether the video data is the three-dimensional data or the two-dimensional data including the third video frame data.
- the second packet processing step includes a step of receiving the format information from the source device and decoding the plurality of received packets according to the received format information.
- a video format identification code for identifying a plurality of video formats of the two-dimensional data including the third video frame data by the source device, and a plurality of the three-dimensional data Pre-store in a first storage means a first video format identification code table including a 3D structure for identifying a video structure; Pre-stores a second video format identification code table including the video format identification code and the 3D structure in a second storage means by the sink device; A video format identification code for identifying the video format of the video data and a 3D structure for identifying the video structure of the video data by the source device referring to the first video format identification code table Further including a control step of transmitting to the sink device, The second packet processing step receives a video format identification code for identifying a video format of the video data and a 3D structure for identifying a video structure of the video data from the source device, and Referring to the second video format identification code table based on the received video format identification code and 3D structure, the video format and the video structure are
- the source device identifies (a) a plurality of video formats of two-dimensional data including third video frame data and (b) a plurality of video formats of three-dimensional data.
- Storing in advance in a first storage means a first video format identification code table including a video format identification code for Pre-stores a second video format identification code table including the video format identification code in the second storage means by the sink device;
- the second packet processing step receives a video format identification code for identifying a video format of the video data from the source device, and the second video format is based on the received video format identification code.
- the method includes identifying a video format with reference to an identification code table, and decoding the received plurality of packets according to the identified video format.
- the source data includes three-dimensional data in which the video data includes the first video frame data and the second video frame data.
- the first video frame data and the second video frame data are synthesized into synthesized video frame data, and a header of each packet for transmitting the synthesized video frame data
- the horizontal position information in the horizontal display period and the vertical position information in the vertical display period of the first pixel of the composite video frame data stored in the packet are used to identify the first and second video frame data.
- the synthesized video frame data is inserted into the packet format so as to be inserted as information.
- video data of three-dimensional data can be transmitted in real time.
- FIG. 1 is a block diagram showing a configuration of a wireless communication system that transmits video data using a video data packet transmission method according to a first embodiment of the present invention.
- FIG. FIG. 2 is a data arrangement diagram based on a relationship between a horizontal synchronizing signal and a vertical synchronizing signal of composite video frame data 3 transmitted in the wireless communication system of FIG. 1. It is a figure which shows the frame format of the video data used in the radio
- FIG. 2 is a sequence diagram showing AV content data transmission processing executed by the wireless communication system of FIG. 1. It is a data arrangement
- FIG. 1 is a block diagram showing a configuration of a wireless communication system that transmits video data using the video data packet transmission method according to the first embodiment of the present invention.
- 2 is a data arrangement diagram based on the relationship between the horizontal synchronization signal and the vertical synchronization signal of the composite video frame data 3 transmitted in the wireless communication system of FIG. 1, and FIG. It is a figure which shows the frame format of the video data used in a system.
- FIG. 4 is a sequence diagram showing AV content data transmission processing executed by the wireless communication system of FIG.
- the configurations of the source device 110 and the sink device 120 in FIG. 1 and the AV content data transmission process in FIG. 4 are applied to the following first to fourth, tenth, and eleventh embodiments.
- the wireless communication system transmits video data from the source device 110 to the sink device 120 using a video frame of a predetermined packet format.
- the source device 110 performs the left-eye video frame data 1 and the right-eye for each video frame.
- Video frame data 2 is synthesized with synthesized video frame data 3, and the header of each packet for transmitting the synthesized video frame data 3 is displayed horizontally in the header of the synthesized video frame data 3 stored in the packet.
- the synthesized video frame data is inserted so that the horizontal position information in the period Th and the vertical position information in the vertical display period Tv are inserted as data for identifying the left-eye video frame data 1 and the right-eye video frame data 2.
- 3 is divided into a plurality of packets according to the packet format and
- a packet processing circuit 113 for generating a packet is characterized by comprising a packet radio transmitting and receiving circuit 114 for transmitting a plurality of packets the generated sync device 120.
- the sink device 120 receives the transmitted packet, and based on the horizontal position information and the vertical position information inserted in the received plurality of packets, the left-eye video frame data 1 and the right-eye video frame data 2 is provided with a packet processing circuit 123 for discriminating between the first and second packets.
- the source device 110 includes a video code or video format identification code (hereinafter referred to as VIC) for identifying a plurality of video formats of two-dimensional data and a plurality of video formats of three-dimensional data.
- VIC video code or video format identification code
- a memory 115 that stores a VIC table 115t in advance and a controller 111 that refers to the VIC table 115t and transmits a VIC for identifying the video format of the video data to the sink device 120 are provided. .
- the sink device 120 further includes a memory 127 that stores a VIC table 127t including the VIC in advance, and the packet processing circuit 123 receives a VIC for identifying the video format of the video data from the source device 110.
- the video format is identified by referring to the VIC table 127t based on the received VIC, and the received plurality of packets are decoded according to the identified video format.
- the packet processing circuit 113 transmits the left-eye video frame data 1 for 1080 lines in the first half of the vertical display period Tv, and then for 1080 lines in the second half of the vertical display period Tv.
- the composite video frame data 3 is configured to transmit the right-eye video frame data 2.
- a source device 110 that functions as a source device for AV content data includes a video / audio reproduction device 112, a packet processing circuit 113, a packet wireless transmission / reception circuit 114 including an antenna 116, a memory 115 that stores a VIC table 115t in advance, These devices and a controller 111 that controls the operation of the circuits 112 to 115 are configured.
- the video / audio reproduction device 112 is, for example, a DVD player, and reproduces video data and audio data from an external storage device or a recording medium such as MD or DVD and outputs the data to the packet processing circuit 113.
- the packet processing circuit 113 converts the input video data and audio data into a digital signal in a predetermined packet format and outputs it to the packet radio transmission / reception circuit 114 as will be described in detail later.
- the packet radio transmission / reception circuit 114 digitally modulates the carrier wave signal according to the input digital signal, and wirelessly transmits the modulated radio signal to the packet radio transmission / reception circuit 122 of the sink device 120 via the antenna 116.
- a wireless signal wirelessly transmitted from the sink device 120 is received by the packet wireless transmission / reception circuit 114 via the antenna 116.
- the packet wireless transmission / reception circuit 114 demodulates the received wireless signal into a baseband signal, and then a packet processing circuit. It outputs to 113.
- the packet processing circuit 113 extracts only a predetermined control command from the input baseband signal by a predetermined packet separation process, and then outputs it to the controller 111.
- the sink device 120 includes a packet radio transmission / reception circuit 122 including an antenna 128, a packet processing circuit 123, a video / audio processing circuit 124, a speaker 125, a display 126 that displays two-dimensional data and three-dimensional data,
- the memory 127 stores EDID (Extended Display Identification Data) data 127d and a VIC table 127t in advance, and a controller 121 that controls the operation of these circuits 122-124, 127.
- the controller 121 includes a bandwidth management unit 121b that manages the use bandwidth of the wireless network and the timing control of signal transmission.
- the packet radio transmission / reception circuit 122 demodulates the radio signal received via the antenna 128 into a baseband signal, and then outputs the demodulated signal to the packet processing circuit 123.
- the packet processing circuit 123 decodes a received packet by extracting only video data, audio data, and a predetermined control command from the input digital signal by a predetermined packet separation process, and processes the video data and the audio data as video / audio processing While outputting to the circuit 124, the control command is output to the controller 121.
- the video / audio processing circuit 124 performs predetermined signal processing and D / A conversion processing on input audio data, and then outputs the audio data to the speaker 125 to output audio, while the input video data is subjected to predetermined signal processing. After executing the D / A conversion process, the data is output to the display 126 and displayed.
- VIC tables 115t and 127t include VICs for identifying a plurality of video formats of two-dimensional data and a plurality of video formats of three-dimensional data, respectively.
- the video format represents the output specification of video data in the sink device 120.
- VICs 1 to 37 and 128 to 136 are assigned to respective video formats of two-dimensional data
- VICs 64 to 72 are assigned to respective video formats of three-dimensional data.
- the EDID data 127d includes VICs of video data that can be displayed using the display 126 among the VICs included in the VIC table 127t, product information and manufacturer name of the display 126, and video encoding methods (for example, RGB, YC B C R 4: 4: 4 or YC B C R 4: 2: 2) and audio output specifications such as audio output sampling (hereinafter referred to as audio format).
- VICs of video data that can be displayed using the display 126 among the VICs included in the VIC table 127t, product information and manufacturer name of the display 126, and video encoding methods (for example, RGB, YC B C R 4: 4: 4 or YC B C R 4: 2: 2) and audio output specifications such as audio output sampling (hereinafter referred to as audio format).
- the controller 111 when transmitting the three-dimensional data to the sink device 120, the controller 111 selects the VIC of the three-dimensional data with reference to the VIC table 115t, and sends it to the packet processing circuit 113 for each video frame. Then, control is performed so that the left-eye video frame data 1 and the right-eye video frame data 2 included in the three-dimensional data are combined with the combined video frame data 3 based on the selected VIC.
- FIG. 2 shows a data arrangement based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 3 when the VIC is 66.
- the horizontal display period Th is a period between the horizontal synchronization period of the horizontal synchronization signal and the next horizontal synchronization period
- the vertical display period Tv is the interval between the vertical synchronization period of the vertical synchronization signal and the next vertical synchronization period. It is a period between.
- the number of horizontal effective pixels of the left-eye video frame data 1 and the right-eye video frame data 2 is 1920 pixels, respectively, and the number of vertical effective pixels is 1080 pixels.
- the number of horizontal pixels of the composite video frame data 3 is 1920 pixels, and the number of vertical pixels is 2160 pixels.
- the vertical synchronization frequency of the left-eye video frame data 1 and the right-eye video frame data 2 is 60 Hz.
- the packet processing circuit 113 synthesizes the left-eye video frame data 1 and the right-eye video frame data 2 into the synthesized video frame data 3.
- the composite video frame data 3 is transmitted in the horizontal display period Th after the left-eye video frame data 1 for 1080 lines is transmitted in the first half of the vertical display period Tv, and then the right eye for 1080 lines in the second half of the vertical display period Tv.
- Video frame data 2 is configured to be transmitted.
- the packet processing circuit 113 when transmitting three-dimensional data, the packet processing circuit 113 generates composite video frame data 3 and divides it into a plurality of packets according to the packet format of FIG. 3, while transmitting two-dimensional data. Generates video frame data of the two-dimensional data, and divides the generated video frame data into a plurality of packets according to the packet format of FIG.
- an HRP preamble 11 is a synchronization pattern portion that stores a synchronization pattern located at the head of a packet in order to demodulate an HRP signal that is a burst signal
- an HRP header 12 is control information of the physical layer of the wireless HD.
- the MAC header 13 is a header portion for storing control information of the MAC layer of the wireless HD
- the HCS 14 is an error detection portion for storing data for error detection of the HRP header 12 and the MAC header 13.
- the packet body 15 is a payload portion in which video data which is the synthesized video frame data 3 or the video frame data of the two-dimensional data is packed, and the beam tracking 16 is for tracking the beam direction of the HRP signal between devices. It is a control data part for storing control data.
- the packet body 15 is divided into a maximum of seven subpackets, in the present embodiment, the packet body 15 is divided into four subpackets 18a to 18d.
- the MAC header 13 includes a video header 17, and the video header 17 is a header portion, and includes video controls 17a to 17d that store format information about each video data included in the subpackets 18a to 18d.
- the video control 17a includes a partition index 20, an interlace field indication 21, a video frame number 22, an H position 23, and a V position 24.
- the partition index 20 stores division information of the video data (pixel data) stored in the subpacket 18a
- the interlace field indication 21 stores the interlace signal related to the video data stored in the subpacket 18a.
- the data for identifying the top and bottom of the video frame number 22 is stored, and the video frame number 22 stores the video frame number of the video data stored in the subpacket 18a.
- each of the video controls 17b, 17c, and 17d includes a partition index 20, an interlace field indication 21, a video frame number 22, an H position 23, and a V position 24, similarly to the video control 17a.
- the H position 23 and the V position 24 are the H positions 23P and V of the packet format of the video data according to the prior art of FIG.
- the horizontal position data in the horizontal display period Th and the vertical position data in the vertical display period Tv of the first pixel of the video frame data stored in the subpacket 18a are stored.
- the synthesized video frame data 3 is stored in the subpacket 18a, the H position 23 and the V position 24 are within the horizontal display period Th of the first pixel of the synthesized video frame data 3 stored in the subpacket 18a.
- the horizontal position data and the vertical position data within the vertical display period Tv are stored as data for identifying the left-eye video frame data 1 and the right-eye video frame data, respectively.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is The value is set from 0x0000 to 0x0437 (0 to 1079).
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919)
- the value stored in the V position 24 is set from 0x0438 to 0x086F. It is set to a value from (1080 to 2159).
- the values stored in the video frame numbers 22 corresponding to the left-eye video frame data 1 and the right-eye video frame data 2 in the same frame are set to be the same.
- the source device 110 wirelessly transmits a connect request (CONNECT_REQUEST) command requesting a wireless connection to the sink device 120, and in response to this, the sink device 120 transmits a connect response (CONNECT_RESPONSE) command to the source device 110.
- CONNECT_REQUEST a connect request
- CONNECT_RESPONSE a connect response
- a reservation sequence is executed.
- the source device 110 wirelessly transmits a bandwidth request command to the sink device 120 in order to request and reserve a bandwidth for transmitting AV content data.
- the bandwidth management unit 121b of the sink device 120 allocates a reservation period necessary for transmitting AV content data from the source device 110 to the sink device 120, and a period designation command including information of the allocated reservation period Is wirelessly transmitted to the source device 110.
- the controller 111 of the source device 110 refers to the VIC table 115t and selects the VIC that is the format information of the three-dimensional data to be transmitted. Then, the controller 111 synthesizes the video frame data 2 for the right eye and the video frame data 1 for the left eye into the synthesized video frame data 3 according to the video format of the selected VIC for each video frame with respect to the packet processing circuit 113. Control to do. In step S2, the controller 111 of the source device 110 controls the packet processing circuit 113 to divide the synthesized video frame data 3 into a plurality of packets according to the packet format of FIG.
- the packet processing circuit 113 stores the respective subpackets in the respective H positions 23 and V positions 24 of the respective video controls 17a, 17b, 17c, and 17d of the respective subpackets 18a, 18b, 18c, and 18d.
- the horizontal position data in the horizontal display period Th and the vertical position data in the vertical display period Tv of the first pixel of the synthesized video frame data 3 thus identified are discriminated between the right-eye video frame data 2 and the left-eye video frame 1.
- the composite video frame data 3 is divided into a plurality of packets according to the packet format of FIG.
- the source device 110 inserts the selected VIC into the stream start notification (STREAM_START_NOTIFY) command and notifies the sink device 120, and the sink device 120 in the reserved period in which the AV content data including a plurality of generated packets is allocated. 120 is transmitted wirelessly.
- the sink device 120 refers to the VIC table 127t based on the notified VIC, identifies the video format, and identifies the received video data packet to the packet processing circuit 123.
- the packet processing circuit 123 performs the right-eye video frame data based on the horizontal position data stored in the H position 23 and the vertical position data stored in the V position 24 of each packet of the received video data. 2 and left-eye video frame data 1 are identified.
- step S2 the source device 110 divides the audio data into a plurality of audio packets according to the audio packet format compliant with the wireless HD, and wirelessly transmits the audio data to the sink device 120 together with the plurality of packets of the composite video frame data 3. .
- the packet processing circuit 113 when the video data is two-dimensional data, the packet processing circuit 113 generates video frame data according to the video format of the selected VIC for each video frame, and generates the generated video frame data.
- a plurality of packets are generated by dividing into a plurality of packets according to the packet format of FIG.
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
- the left-eye video frame data 1 of the first frame is packet-transmitted in the first to 54th packets
- the right-eye video frame data 2 of the first frame is packet-transmitted in the 55th to 108th packets.
- the composite video frame data 3 is packet-transmitted using 108 packets for each video frame.
- each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
- the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
- the video frame number 22 for storing the frame number
- the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
- a V position 24 for storing the location information.
- the horizontal position data and the vertical display within the horizontal display period Th of the synthesized video frame data 3 obtained by synthesizing the left-eye video frame data 1 and the right-eye video frame data 2 are displayed.
- the vertical position data in the period Tv is stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 1 and the right-eye frame data 2, respectively. Therefore, it becomes possible to identify the left-eye video frame data 1 and the right-eye video frame data 2 to be transmitted in packets, and AV content data including two-dimensional video data, AV content including three-dimensional video data, Can be efficiently transmitted in the same packet format.
- FIG. 5 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 43 according to the second embodiment of the present invention.
- This embodiment is different from the first embodiment only in the method for generating the composite video frame data 43.
- the other operations are the same as those in the first embodiment, and the description of the operation is omitted here.
- FIG. 5 shows the format of the composite video frame data 43 when the VIC is 69.
- the left-eye video frame data 41 and the right-eye video frame data 42 each have a horizontal effective pixel number of 1920 pixels and a vertical effective pixel number of 540 pixels.
- the number of horizontal pixels of the composite video frame data 43 is 3840 pixels, and the number of vertical pixels is 540 pixels.
- the vertical synchronization frequency of the left-eye video frame data 41 and the right-eye video frame data 42 is 60 Hz.
- the packet processing circuit 113 synthesizes the left-eye video frame data 41 and the right-eye video frame data 42 into the synthesized video frame data 43.
- the composite video frame data 43 is transmitted in the vertical display period Tv after the 1920-pixel left-eye video frame data 41 is transmitted in the first half of the horizontal display period Th and then in the second half of the horizontal display period Th.
- the video frame data 42 is configured to be transmitted.
- the source device 110 divides the synthesized video frame data 43 into a plurality of packets according to the packet format of FIG.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is from 0x0000.
- the value is set to 0x021B (0 to 539).
- the value stored in the H position 23 is set to a value from 0x0780 to 0x0EFF (1920 to 3839), and the value stored in the V position 24 is 0x0000 to 0x021B.
- a value from (0 to 539) is set.
- the values stored in the video frame numbers 22 corresponding to the left-eye video frame data 41 and the right-eye video frame data 42 in the same frame are set to be the same.
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
- the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
- the composite video frame data 43 is transmitted by using 54 packets for each video frame.
- each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
- the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
- the video frame number 22 for storing the frame number
- the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
- a V position 24 for storing the location information.
- the horizontal position data and the vertical display period within the horizontal display period Th of the synthesized video frame data 43 obtained by synthesizing the left-eye video frame data 41 and the right-eye video frame data 42 are stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 41 and the right-eye frame data 42, respectively. Therefore, it is possible to identify the left-eye video frame data 41 and the right-eye video frame data 42 to be transmitted in packets, and AV content data including two-dimensional video data and AV content including three-dimensional video data can be obtained. It is possible to transmit efficiently with the same packet format.
- FIG. 6 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 55 according to the third embodiment of the present invention. This embodiment is different from the first embodiment only in the method for generating the composite video frame data 55. The other operations are the same as those in the first embodiment, and the description of the operation is omitted here.
- FIG. 6 shows the format of the composite video frame data 55 when the VIC is 64.
- the horizontal effective pixel numbers of the left-eye top field video frame data 51, the right-eye top field video frame data 52, the left-eye bottom field video frame data 53, and the right-eye bottom field video frame data 54 are 1920 pixels, respectively.
- the number of vertical effective pixels is 540 pixels.
- the composite video frame data 55 has a horizontal pixel number of 1920 pixels and a vertical pixel number of 2160 pixels.
- the vertical synchronization frequency of the left-eye top field video frame data 51, the right-eye top field video frame data 52, the left-eye bottom field video frame data 53, and the right-eye bottom field video frame data 54 is 30 Hz.
- the packet processing circuit 113 combines the left-eye top field video frame data 51, the right-eye top field video frame data 52, the left-eye bottom field video frame data 53, and the right-eye bottom field video frame data 54 with synthesized video frame data.
- the composite video frame data 55 is transmitted with the left-eye top field video frame data 51 for 540 lines in the first quarter of the vertical display period Tv, and the second four minutes.
- the right-eye top field video frame data 52 for 540 lines is transmitted in the first period
- the left-eye bottom field video frame data 53 for 540 lines is transmitted in the third quarter period.
- 540 lines of right-eye bottom field video frame data 54 are configured to be transmitted in a period of one half.
- the source device 110 divides the synthesized video frame data 55 into a plurality of packets according to the packet format of FIG.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is It is set to a value from 0x0000 to 0x021B (0 to 539).
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is 0x021C. To 0x0437 (540 to 1079).
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is 0x0438. To 0x0653 (1080 to 1619). Furthermore, when the right-eye bottom field video frame data 54 is transmitted, the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is It is set to a value from 0x0654 to 0x086F (1620 to 2159).
- Each value stored in 22 is set to be the same.
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
- the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
- the left-eye top field video frame data 51 of the first frame is transmitted in the first to 27th packets
- the right-eye top field video frame data of the first frame is transmitted in the 28th to 54th packets.
- 52 is packet-transmitted
- the left-eye bottom field video frame data 53 of the first frame is transmitted in the 55th to 81st packets
- the right-eye bottom field video of the first frame is transmitted in the 82nd to 108th packets.
- Frame data 54 is packet-transmitted
- composite video frame data 55 is packet-transmitted using 108 packets for each video frame.
- each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
- the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
- the video frame number 22 for storing the frame number
- the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
- a V position 24 for storing the location information.
- the left-eye top field video frame data 51, the right-eye top field video frame data 52, the left-eye bottom field video frame data 53, and the right-eye bottom field video frame data 54 are displayed.
- the frame data 52, the left eye bottom field video frame data 53, and the right eye bottom field video frame data 54 are stored in the H position 23 and the V position 24, respectively, as data for identifying the frame data 52, the left eye bottom field video frame data 53, and the right eye bottom field video frame data 54.
- AV content data including two-dimensional video data and AV content including three-dimensional video data can be efficiently transmitted in the same packet format.
- FIG. 7 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 63 according to the fourth embodiment of the present invention. This embodiment is different from the first embodiment only in the method of generating the composite video frame data 63. The other operations are the same as those in the first embodiment, and the description of the operation is omitted here.
- FIG. 7 shows the format of the composite video frame data 43 when the VIC is 71.
- the left-eye video frame data 61 and the right-eye video frame data 62 each have a horizontal effective pixel number of 960 pixels and a vertical effective pixel number of 540 pixels.
- the composite video frame data 63 has a horizontal pixel number of 1920 pixels and a vertical pixel number of 540 pixels.
- the vertical synchronization frequency 64 of the left-eye video frame data 61 and the right-eye video frame data 62 is 60 Hz.
- the packet processing circuit 113 synthesizes the left-eye video frame data 61 and the right-eye video frame data 62 into the synthesized video frame data 63.
- the composite video frame data 63 is transmitted in the vertical display period Tv after the left-eye video frame data 41 for 960 pixels is transmitted in the first half of the horizontal display period Th and then the right eye for 960 pixels in the second half of the horizontal display period Th.
- the video frame data 42 is configured to be transmitted.
- the source device 110 divides the synthesized video frame data 63 into a plurality of packets according to the packet format of FIG.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x03BF (0 to 959), and the value stored in the V position 24 is from 0x0000.
- the value is set to 0x021B (0 to 539).
- the value stored in the H position 23 is set to a value from 0x03C0 to 0x07FF (960 to 1919), and the value stored in the V position 24 is 0x0000 to 0x021B.
- a value from (0 to 539) is set.
- the values stored in the video frame numbers 22 corresponding to the left-eye video frame data 61 and the right-eye video frame data 62 in the same frame are set to be the same.
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
- the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
- the composite video frame data 63 is packet-transmitted using 27 packets for each video frame.
- each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
- the header includes a partition index 20 for storing division information of pixel data stored in the packet, data for identifying the top and bottom of the interlace signal, an interlace field indication 21 for corners, and pixel data stored in the packet.
- a V position 24 for storing the location information.
- the vertical position data in Tv is stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 61 and the right-eye video frame data 62, respectively. For this reason, it becomes possible to identify the left-eye video frame data 61 and the right-eye video frame data 62 to be packet-transmitted, and AV content data including two-dimensional video data and AV content including three-dimensional video data are obtained. It is possible to transmit efficiently with the same packet format.
- FIG. 8 is a sequence diagram showing AV content data transmission processing according to the fifth embodiment of the present invention
- FIG. 9 shows the horizontal synchronization signal of the composite video frame data 203 according to the fifth embodiment of the present invention. It is a data arrangement
- This embodiment differs from the first embodiment in the following points.
- the source device 110 stores in advance in the memory 115 a VIC table 115t including a VIC for identifying a plurality of video formats of 2D data and a 3D structure for identifying a video structure of 3D data.
- the sink device 120 stores in the memory 127 in advance in a VIC table 127t including a VIC for identifying a plurality of video formats of two-dimensional data and a 3D structure for identifying a video structure of three-dimensional data.
- the source device 110 notifies the sink device 120 of the VIC and 3D structure of the video data to be transmitted, and the sink device 120 refers to the VIC table 127t based on the notified VIC and 3D structure, Identify the video structure and decode the transmitted video data packet according to the identified video format and 3D structure.
- a blanking period 209 is provided between the transmission period of the left-eye video frame data 201 and the transmission period of the right-eye video frame data 202. Only differences from the first embodiment will be described below.
- VICs 1 to 37 and 128 to 136 are assigned to respective video formats of two-dimensional data.
- the 3D structure is a code representing a transmission format which is a video structure of three-dimensional data, and includes left-eye video frame data, right-eye video frame data, left-eye top field video frame data, and right-eye data included in the three-dimensional data.
- the transmission order and transmission timing of each data such as top field video frame data, left eye bottom field video frame data, and right eye bottom field video frame data are identified.
- the memory 115 stores a VIC table 115t including a VIC and a 3D structure in advance
- the memory 127 stores a VIC table 127t including a VIC and a 3D structure in advance.
- each process up to the bandwidth reservation sequence is executed in the same manner as each process up to the bandwidth reservation sequence in the AV content data transfer process according to the first embodiment of FIG.
- the controller 111 of the source device 110 refers to the VIC table 115t and selects the VIC and 3D structure of the three-dimensional data to be transmitted. Then, the controller 111 performs the packet processing circuit 113.
- step S2A the controller 111 of the source device 110 controls the packet processing circuit 113 to divide the synthesized video frame data 203 into a plurality of packets according to the packet format of FIG.
- the packet processing circuit 113 stores the respective subpackets in the respective H positions 23 and V positions 24 of the respective video controls 17a, 17b, 17c, and 17d of the respective subpackets 18a, 18b, 18c, and 18d.
- the composite video frame data 203 is divided into a plurality of packets according to the packet format of FIG. 3 so as to be stored as data.
- the source device 110 wirelessly transmits a stream start notification (STREAM_START_NOTIFY) command to the sink device 120.
- the stream start notification message includes the VIC and 3D structure of video data to be transmitted.
- the source device 110 wirelessly transmits the generated plurality of packets to the sink device 120 during the allocated reservation period.
- the sink device 120 identifies the video format and the video structure with reference to the VIC table 127t based on the notified VIC and 3D structure, and the packet of the transmitted video data is identified to the packet processing circuit 123. Control to decode according to video format and video structure.
- the packet processing circuit 123 performs the right-eye video frame data based on the horizontal position data stored in the H position 23 and the vertical position data stored in the V position 24 of each packet of the received video data. 202 and the left-eye video frame data 201 are identified.
- the source device 110 wirelessly transmits two-dimensional data and audio data to the sink device 120, as in the first embodiment.
- FIG. 9 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 203 according to the fifth embodiment of the present invention.
- FIG. 9 shows a format of the synthesized video frame data 203 when the VIC is 32 and the 3D structure represents frame packing.
- the left-eye video frame data 201 and the right-eye video frame data 202 each have a horizontal effective pixel number of 1920 pixels and a vertical effective pixel number of 1080 pixels.
- the number of horizontal pixels of the composite video frame data 203 is 1920 pixels, and the number of vertical pixels is 2205 pixels.
- the vertical synchronization frequency of the left-eye video frame data 1 and the right-eye video frame data 2 is 23.976 Hz.
- the packet processing circuit 113 synthesizes the left-eye video frame data 201 and the right-eye video frame data 202 into the synthesized video frame data 203.
- the composite video frame data 203 is transmitted in the first half of the vertical display period Tv in the horizontal display period Th after the left-eye video frame data 201 for 1080 lines is transmitted, and then the right eye for 1080 lines in the second half of the vertical display period Tv.
- the video frame data 202 is configured to be transmitted. Further, a blanking period 209 is provided between the transmission period of the left-eye video frame data 201 and the transmission period of the right-eye video frame data 202.
- the source device 110 divides the synthesized video frame data 203 into a plurality of packets according to the packet format of FIG.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is from 0x0000.
- the value is set to 0x0437 (0 to 1079).
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919)
- the value stored in the V position 24 is set from 0x0465 to 0x089C.
- a value from (1125 to 2204) is set.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is set from 0x0438 to 0x0464 (1080). To 1124).
- the values stored in the video frame numbers 22 corresponding to the left-eye video frame data 201, the right-eye video frame data 202, and the blanking period 209 in the same frame are set to be the same.
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
- the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
- the left-eye video frame data 201 of the first frame is packet-transmitted in the first to 54th packets
- the blanking period 209 is packet-transmitted in the 55th to 57th packets
- the video frame data 202 for the right eye of the first frame is packet-transmitted.
- the composite video frame data 203 is packet-transmitted using 110 packets and one sub-bucket for each video frame. Is done.
- each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
- the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
- the video frame number 22 for storing the frame number
- the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
- a V position 24 for storing the location information.
- the horizontal position data and the vertical display within the horizontal display period Th of the combined video frame data 203 obtained by combining the left-eye video frame data 201 and the right-eye video frame data 202 are displayed.
- the vertical position data within the period Tv is stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 201 and the right-eye video frame data 202, respectively. For this reason, it becomes possible to identify the left-eye video frame data 201 and the right-eye video frame data 202 to be transmitted in packets, and AV content data including two-dimensional video data, AV content including three-dimensional video data, Can be efficiently transmitted in the same packet format.
- FIG. 10 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 143 according to the second embodiment of the present invention. This embodiment is different from the fifth embodiment only in the method of generating the composite video frame data 143. Others are the same as those in the fifth embodiment, and thus the description of the operation is omitted here.
- FIG. 10 shows the format of the composite video frame data 143 when the VIC is 16 and the 3D structure represents side-by-side (full).
- the horizontal effective pixel number of the left-eye video frame data 141 and the right-eye video frame data 142 is 1920 pixels, respectively, and the vertical effective pixel number is 1080 pixels.
- the number of horizontal pixels of the composite video frame data 143 is 3840 pixels, and the number of vertical pixels is 1080 pixels.
- the vertical synchronization frequency of the left-eye video frame data 141 and the right-eye video frame data 142 is 60 Hz.
- the packet processing circuit 113 synthesizes the left-eye video frame data 141 and the right-eye video frame data 142 into the synthesized video frame data 143.
- the composite video frame data 143 is transmitted as 1920-pixel left-eye video frame data 141 in the first half of the horizontal display period Th, and then in the second half of the horizontal display period Th.
- the video frame data 142 is configured to be transmitted.
- the source device 110 divides the synthesized video frame data 143 into a plurality of packets according to the packet format of FIG.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is from 0x0000.
- the value is set to 0x0438 (0 to 1079).
- the value stored in the H position 23 is set to a value from 0x0780 to 0x0EFF (1920 to 3839), and the value stored in the V position 24 is 0x0000 to 0x0438. It is set to a value from (0 to 1079).
- the values stored in the video frame numbers 22 corresponding to the left-eye video frame data 141 and the right-eye video frame data 142 in the same frame are set to be the same.
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
- Sub-packets 18a to 10d of the 864th packet are Sub-packets 18a to 10d of the 864th packet.
- the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
- the composite video frame data 143 is packet-transmitted using 108 packets for each video frame.
- each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
- the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
- the video frame number 22 for storing the frame number
- the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
- a V position 24 for storing the location information.
- the vertical position data in Tv is stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 141 and the right-eye frame data 142, respectively. For this reason, it becomes possible to identify the left-eye video frame data 141 and the right-eye video frame data 142 to be transmitted in packets, and AV content data including two-dimensional video data and AV content including three-dimensional video data are obtained. It is possible to transmit efficiently with the same packet format.
- FIG. 11 is a data layout diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the synthesized video frame data 155 and the synthesized video frame data 156 according to the seventh embodiment of the present invention.
- This embodiment is different from the fifth embodiment only in the method of generating the synthesized video frame data 155 and the synthesized video frame data 156. Others are the same as those in the fifth embodiment, and thus the description of the operation is omitted here.
- FIG. 11 shows the formats of the synthesized video frame data 155 and the synthesized video frame data 156 when the VIC is 5 and the 3D structure represents frame packing.
- the horizontal effective pixel numbers of the left-eye top field video frame data 151, the right-eye top field video frame data 152, the left-eye bottom field video frame data 153, and the right-eye bottom field video frame data 154 are 1920 pixels, respectively.
- the number of vertical effective pixels is 540 pixels.
- the number of horizontal pixels of the synthesized video frame data 155 and the synthesized video frame data 156 is 1920 pixels
- the number of vertical pixels is 1080 pixels.
- the vertical synchronization frequency of the left-eye top field video frame data 151, the right-eye top field video frame data 152, the left-eye bottom field video frame data 153, and the right-eye bottom field video frame data 154 is 30 Hz.
- the packet processing circuit 113 synthesizes the left-eye top field video frame data 151 and the right-eye top field video frame data 152 into the synthesized video frame data 155, and the left-eye bottom field video frame data 153 and the right-eye bottom field video frame data 155. 154 and the synthesized video frame data 156.
- the composite video frame data 155 is transmitted in the first period of the vertical display period Tv after the left-eye top field video frame data 151 for 540 lines is transmitted, and then in the second period of the vertical display period Tv.
- the right-eye top field video frame data 152 for 540 lines is transmitted in the period.
- the composite video frame data 156 is transmitted for 540 lines in the fourth period of the vertical display period Tv after the transmission of the left-eye bottom field video frame data 153 for 540 lines in the third period of the vertical display period Tv.
- the right-eye bottom field video frame data 154 is transmitted.
- a blanking period 157 is provided between the transmission period of the left-eye top field video frame data 151 and the transmission period of the right-eye top field video frame data 152, and the right-eye top field video frame data 152 and the left-eye bottom field
- a blanking period 158 is provided between the video frame data 153 and a blanking period 159 is provided between the transmission period of the left-eye bottom field video frame data 153 and the transmission period of the right-eye bottom field video frame data 154.
- the first to fourth periods and the blanking periods 157 to 159 described above are the first period, the blanking period 157, and the second period from the start timing to the end timing of each vertical display period Tv.
- the blanking period 158, the third period, the blanking period 159, and the fourth period are arranged in this order.
- the source device 110 divides the synthesized video frame data 155 and the synthesized video frame data 156 into a plurality of packets according to the packet format of FIG.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is It is set to a value from 0x0000 to 0x021B (0 to 539).
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is 0x0233.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is 0x0465. To 0x0680 (1125 to 1664). Furthermore, when the right-eye bottom field video frame data 154 is transmitted, the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is It is set to a value from 0x0698 to 0x08B3 (1688 to 2227).
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is It is set to a value from 0x021C to 0x0232 (540 to 562). Further, when transmitting the blanking period 158 in the second period, the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is The value is set from 0x044F to 0x0464 (1103 to 1124).
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is It is set to a value from 0x0681 to 0x0697 (1665 to 1687).
- Each value stored in 22 is set to be the same.
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
- Sub-packets 18a to 10d of the 56th packet are Sub-packets 18a to 10d of the 56th packet.
- Sub-packets 18a to 10d of the 892nd packet are Sub-packets 18a to 10d of the 892nd packet.
- the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
- the left-eye top field video frame data 151 of the first frame is transmitted in the first to 27th packets, and the blanking period 157 is transmitted in the 28th to 29th packets.
- the right frame top field video frame data 152 of the first frame is transmitted, and in the 56th to 57th packets, the second period and the blanking period 158 are transmitted.
- the left-eye bottom field video frame data 153 of the second frame is transmitted, and in the 84th to 85th packets, the third period, the blanking period 159 is transmitted, and the 85th to 112th.
- Bottom field for the right eye of the second frame in the packet of Deo frame data 154 is transmitted packets, and 111 pieces of packets per video frame and two sub-packets using a synthesized video frame data 155 and synthesized video frame data 156 is transmitted packets.
- each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
- the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
- the video frame number 22 for storing the frame number
- the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
- a V position 24 for storing the location information.
- synthesized video frame data 155 obtained by synthesizing the left-eye top field video frame data 151 and the right-eye top field video frame data 152, and the left-eye bottom field video frame data
- the horizontal position data in the horizontal display period Th and the vertical position data in the vertical display period Tv of the combined video frame data 156 obtained by combining the 153 and the right-eye bottom field video frame data 154 are converted into the left-eye top field video.
- AV content data including two-dimensional video data and AV content including three-dimensional video data can be efficiently transmitted in the same packet format.
- FIG. 12 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 163 according to the eighth embodiment of the present invention.
- This embodiment is different from the fifth embodiment only in the method of generating the composite video frame data 163. Others are the same as those in the fifth embodiment, and thus the description of the operation is omitted here.
- FIG. 12 shows the format of the composite video frame data 43 when the VIC is 16 and the 3D structure is side-by-side (half).
- the left-eye video frame data 161 and the right-eye video frame data 162 each have a horizontal effective pixel number of 960 pixels and a vertical effective pixel number of 1080 pixels.
- the composite video frame data 163 has a horizontal pixel number of 1920 pixels and a vertical pixel number of 1080 pixels.
- the vertical synchronization frequency 64 of the left-eye video frame data 161 and the right-eye video frame data 162 is 60 Hz.
- the packet processing circuit 113 synthesizes the left-eye video frame data 161 and the right-eye video frame data 162 into the synthesized video frame data 163.
- the source device 110 divides the synthesized video frame data 163 into a plurality of packets according to the packet format of FIG.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x03BF (0 to 959), and the value stored in the V position 24 is from 0x0000.
- the value is set to 0x0438 (0 to 1079).
- the value stored in the H position 23 is set to a value from 0x03C0 to 0x077F (960 to 1919), and the value stored in the V position 24 is 0x0000 to 0x0438. It is set to a value from (0 to 1079).
- the values stored in the video frame numbers 22 corresponding to the left-eye video frame data 161 and the right-eye video frame data 162 in the same frame are set to be the same.
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
- the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
- the composite video frame data 3 is packet-transmitted using 54 packets for each video frame.
- each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
- the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
- the video frame number 22 for storing the frame number
- the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
- a V position 24 for storing the location information.
- the horizontal position data and the vertical display period within the horizontal display period Th of the combined video frame data 163 obtained by combining the left-eye video frame data 161 and the right-eye video frame data 162 are combined.
- the vertical position data in Tv is stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 161 and the right-eye video frame data 162, respectively. For this reason, it becomes possible to identify the left-eye video frame data 161 and the right-eye video frame data 162 to be packet-transmitted, and AV content data including two-dimensional video data and AV content including three-dimensional video data can be obtained. It is possible to transmit efficiently with the same packet format.
- FIG. 13 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the synthesized video frame data 95 and the synthesized video frame data 96 according to the ninth embodiment of the present invention.
- This embodiment is different from the fifth embodiment only in the method of generating the synthesized video frame data 95 and the synthesized video frame data 96.
- the other operations are the same as those in the first embodiment, and the description of the operation is omitted here.
- FIG. 13 shows a format of the synthesized video frame data 95 and the synthesized video frame data 96 when the VIC is 5 and the 3D structure represents frame alternative.
- vertical display periods Tv1 and Tv2 are periods between three vertical synchronization periods in which vertical synchronization signals are continuous.
- the horizontal effective pixel numbers of the left-eye top field video frame data 91, the right-eye top field video frame data 92, the left-eye bottom field video frame data 93, and the right-eye bottom field video frame data 94 are 1920 pixels, respectively.
- the number of vertical effective pixels is 540 pixels.
- the number of horizontal pixels of the composite video frame data 95 and the composite video frame data 96 is 1920 pixels, respectively, and the number of vertical pixels is 1080 pixels.
- the vertical synchronization frequencies of the left-eye top field video frame data 91, the right-eye top field video frame data 92, the left-eye bottom field video frame data 93, and the right-eye bottom field video frame data 94 are 60 Hz, respectively.
- the packet processing circuit 113 synthesizes the left-eye top field video frame data 91 and the right-eye top field video frame data 92 into the synthesized video frame data 95.
- the composite video frame data 95 is transmitted for 540 lines in the second half of the vertical display period Tv2 after the left-eye top field video frame data 91 for 540 lines is transmitted in the first half of the vertical display period Tv1.
- Right-eye top field video frame data 92 is transmitted.
- a blanking period 97 is provided between the transmission period of the left-eye top field video frame data 91 and the transmission period of the right-eye top field video frame data 92. Further, the packet processing circuit 113 synthesizes the left-eye bottom field video frame data 93 and the right-eye bottom field video frame data 94 into the synthesized video frame data 96. At this time, in the horizontal display period Th, the composite video frame data 96 is transmitted for 540 lines in the second half of the vertical display period Tv2 after the left-eye bottom field video frame data 93 for 540 lines is transmitted in the first half of the vertical display period Tv2. The right-eye bottom field video frame data 94 is transmitted. Further, a blanking period 99 is provided between the transmission period of the left-eye bottom field video frame data 93 and the transmission period of the right-eye bottom field video frame data 94.
- the source device 110 divides the synthesized video frame data 95 and the synthesized video frame data 96 into a plurality of packets according to the packet format of FIG.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919).
- the value stored in the V position 24 is set to a value from 0x0000 to 0x021B (0 to 539).
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919).
- the value stored in the position 24 is set to a value from 0x0233 to 0x044E (563 to 1102).
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919).
- the value stored in the V position 24 is set to a value from 0x021C to 0x0232 (540 to 562).
- the values stored in the video frame numbers 22 corresponding to the left-eye top field video frame data 91 and the right-eye top field video frame data 92 in the same frame are set to the same odd number and the same.
- the values stored in the video frame numbers 22 corresponding to the left-eye bottom field video frame data 93 and the right-eye bottom field video frame data 94 in the same frame are set to the same even number.
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
- Sub-packets 18a to 10d of the 56th packet are Sub-packets 18a to 10d of the 56th packet.
- Sub-packets 18a to 10d of the 110th packet are Sub-packets 18a to 10d of the 110th packet.
- the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
- the left-eye top field video frame data 91 of the first frame is transmitted in the first to 27th packets, and the first period and the blanking period 97 are transmitted in the 28th to 29th packets.
- the right-eye top field video frame data 92 of the first frame is packet-transmitted, and in the 56th to 83rd packets, the left-eye bottom field video frame data 93 of the second frame is the packet.
- the third period and the blanking period 99 are transmitted, and in the 84th to 111th packets, the right frame bottom field video frame data 94 of the second frame is transmitted.
- Composite video frame data 95 and the synthesized video frame data 96 is transmitted packet using the packet.
- each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
- the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
- the video frame number 22 for storing the frame number
- the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
- a V position 24 for storing the location information.
- synthesized video frame data 95 obtained by synthesizing the left-eye top field video frame data 91 and the right-eye top field video frame data 92, and the left-eye bottom field video frame data 93 and the horizontal position data in the horizontal display period Th and the vertical position in the vertical display period Tv of the composite video frame data 96 obtained by combining the bottom field video frame data 94 for the right eye and the top field video frame for the left eye.
- AV content data including two-dimensional video data and AV content including three-dimensional video data can be efficiently transmitted in the same packet format.
- FIG. 14 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 173 according to the tenth embodiment of the present invention.
- 15 to 16 are tables showing the VIC tables 115t and 127t according to the tenth embodiment of the present invention. This embodiment is different from the first embodiment only in the size of the composite video frame data 173 and the value of the VIC assigned in the VIC tables 115t and 127t. The other operations are the same as those in the first embodiment, and the description of the operation is omitted here.
- the source device 110 and the sink device 120 include VIC tables 115t and 127t including video format identification codes for identifying a plurality of video formats of two-dimensional data and a plurality of video formats of three-dimensional data, respectively. Stored in the memories 115 and 127 in advance. Specifically, as shown in FIGS. 15 to 16, VICs 96 to 99 are assigned to video formats of three-dimensional data including right-eye video frame data 172 and left-eye video frame data 171, respectively.
- the number of horizontal and vertical pixels of the composite video frame data 173 is 1920 ⁇ 2160 (the number of horizontal and vertical pixels of the left-eye frame data 171 is 1920 ⁇ 1080, and the number of horizontal and vertical pixels of the right-eye frame data 172 is 1920 ⁇ 1080.
- the scanning method is progressive scan, the vertical synchronization frequency is 23.97 / 24 Hz, and it is assigned to the frame sequential video format.
- the VIC 97 has 1920 ⁇ 2160 horizontal and vertical pixel counts of the composite video frame data 173 (the horizontal and vertical pixel counts of the left-eye frame data 171 are 1920 ⁇ 1080, and the horizontal and vertical pixel counts of the right-eye frame data 172 (horizontal The number of pixels ⁇ the number of vertical pixels) is 1920 ⁇ 1080.)
- the scanning method is progressive scan, the vertical synchronization frequency is 25 Hz, and it is assigned to the frame sequential video format.
- the number of horizontal and vertical pixels of the composite video frame data 173 is 1280 ⁇ 1440 (the number of horizontal and vertical pixels of the left-eye frame data 171 is 1280 ⁇ 720, and the number of horizontal and vertical pixels of the right-eye frame data 172 is 1280 ⁇ 720)), the scanning method is progressive scan, the vertical synchronization frequency is 59.94 / 60 Hz, and it is assigned to the frame sequential video format. Furthermore, the VIC 99 has the number of horizontal and vertical pixels of the composite video frame data 173 of 1280 ⁇ 1440 (the number of horizontal and vertical pixels of the left-eye frame data 171 is 1280 ⁇ 720, and the horizontal and vertical pixels of the frame data 172 for the right eye).
- the scanning method is progressive scan, the vertical synchronization frequency is 50 Hz, and it is assigned to the frame sequential video format.
- Other VICs are allocated to a plurality of two-dimensional video formats and reserved areas (reserved).
- FIG. 14 shows the format of the composite video frame data 173 when the VIC is 98.
- the left-eye video frame data 171 and the right-eye video frame data 172 each have a horizontal effective pixel number of 1280 pixels and a vertical effective pixel number of 720 pixels.
- the composite video frame data 173 has a horizontal pixel count of 1280 pixels and a vertical pixel count of 1440 pixels.
- the vertical synchronization frequency of the left-eye video frame data 171 and the right-eye video frame data 172 is 59.94 Hz or 60 Hz.
- the packet processing circuit 113 combines the left-eye video frame data 171 and the right-eye video frame data 172 into the combined video frame data 173.
- the composite video frame data 172 is transmitted in the horizontal display period Th after the left-eye video frame data 171 for 720 lines is transmitted in the first half of the vertical display period Tv, and then in the second half of the vertical display period Tv.
- Video frame data 172 is transmitted.
- the source device 110 divides the synthesized video frame data 173 into a plurality of packets according to the packet format of FIG.
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
- Sub-packets 18a to 10d of the 576th packet are Sub-packets 18a to 10d of the 576th packet.
- the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
- the composite video frame data 173 is packet-transmitted using 72 packets for each video frame.
- the values stored in the video frame number 22 of the left-eye video frame data 171 and the right-eye video frame data 172 are set to be the same.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x04FF (0 to 1279), and the value stored in the V position 24 is set from 0x0000 to 0x02CF.
- a value from (0 to 719) is set.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x04FF (0 to 1279), and the value stored in the V position 24 is set from 0x02D0 to 0x059F. It is set to a value from (720 to 1439).
- the values stored in the video controls 17a, 17b, 17c, and 17d are set as follows.
- the value stored in the V position 24 of the left-eye video frame data 171 is set to a value from 0 to 719, and the value stored in the V position 24 of the right-eye video frame data 172 is from 720 to 1439. Set to a value.
- each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
- the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
- the video frame number 22 for storing the frame number
- the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
- a V position 24 for storing the location information.
- the sink device 120 has received the data. If the value stored in the V position 24 of the packet is in the range from 0 to 719, it is determined that the video frame data 171 is for the left eye, and if the value stored in the V position 24 is in the range from 720 to 1439. It can be determined that the video frame data is 172 for the right eye. Ri can be transmitted efficiently and AV contents data including a two-dimensional video data, and AV content including three-dimensional video data in the same packet format.
- the value stored in each V position 24 of the left-eye video frame data 171 and the right-eye video frame data 172 is set to a value in the range of continuous values 0 to 1439.
- the present invention is not limited to this, and the value stored in each V position 24 of the video frame data 171 for the left eye is set to a value from 0 to 719, and a blanking period (space) is provided for 30 lines.
- the values of the V positions 24 of the right-eye video frame data 172 may be set to values from 750 to 1469 without being continuous.
- data other than video data such as audio data or dummy data may be transmitted during the blanking period.
- FIG. 17 is a data arrangement diagram based on the relationship between the horizontal synchronizing signal and the vertical synchronizing signal of the composite video frame data 183 according to the eleventh embodiment of the present invention.
- This embodiment is different from the tenth embodiment only in the number of horizontal pixels, the number of vertical pixels, and the vertical synchronization frequency of the composite video frame data 173. Others are the same as those in the tenth embodiment, and thus the description of the operation is omitted here.
- FIG. 17 shows the format of the composite video frame data 183 when the VIC is 96.
- the left-eye video frame data 181 and the right-eye video frame data 182 each have a horizontal effective pixel number of 1920 pixels and a vertical effective pixel number of 1080 pixels.
- the number of horizontal pixels of the composite video frame data 183 is 1920 pixels, and the number of vertical pixels is 2160 pixels.
- the vertical synchronization frequency of the left-eye video frame data 181 and the right-eye video frame data 182 is 23.97 Hz or 24 Hz.
- the packet processing circuit 113 synthesizes the left-eye video frame data 181 and the right-eye video frame data 182 into the synthesized video frame data 183.
- the composite video frame data 183 is transmitted in the first half of the vertical display period Tv in the horizontal display period Th after the left-eye video frame data 181 for 1080 lines is transmitted, and then the right eye for 1080 lines in the second half of the vertical display period Tv.
- Video frame data 182 is transmitted.
- the source device 110 divides the synthesized video frame data 183 into a plurality of packets according to the packet format of FIG.
- the values stored in the interlace field indication 21, the video frame number 22, the H position 23, and the V position 24 in the video controls 17a, 17b, 17c, and 17d provided for each subpacket are as follows. And are transmitted sequentially.
- the partition index 20 stores the value 0b0 (unsupported). Further, it is assumed that there is no packet retransmission due to a transmission error.
- the composite video frame data 183 is packet-transmitted using 108 packets for each video frame.
- the video frame number 22 of the left-eye video frame data 181 and the right-eye video frame data 182 is set to the same value.
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919)
- the value stored in the V position 24 is set from 0x0000 to 0x0437. It is set to a value from (0 to 1079).
- the value stored in the H position 23 is set to a value from 0x0000 to 0x077F (0 to 1919), and the value stored in the V position 24 is set from 0x0438 to 0x086F. It is set to a value from (1080 to 2159).
- the values stored in the video controls 17a, 17b, 17c, and 17d are set as follows.
- (A) The value stored in the video frame number 22 of the left-eye video frame data 181 and the value stored in the video frame number 22 of the right-eye video frame data 182 are set to the same value.
- the value stored in the V position 24 of the left-eye video frame data 181 is set to a value from 0 to 1079, and the value stored in the V position 24 of the right-eye video frame data 182 is from 1080 to 2159. Set to a value.
- each packet for packet transmission of uncompressed video data in a network that transmits AV content data including video data and audio data from the source device 110 to the sink device 120 is transmitted.
- the header includes a partition index 20 for storing division information of pixel data stored in the packet, an interlace field indication 21 for storing data for identifying the top and bottom of the interlace signal, and a video of the pixel data stored in the packet.
- the video frame number 22 for storing the frame number
- the H position 23 for storing the horizontal position information of the first pixel of the video data stored in the packet, and the vertical position of the first pixel of the video data stored in the packet.
- a V position 24 for storing the location information.
- the vertical position in Tv is stored in the H position 23 and the V position 24 as data for identifying the left-eye video frame data 181 and the right-eye video frame data 182, respectively. Therefore, if the value stored in the V position 24 of the received packet is in the range of 0 to 1079, the sink device 120 determines that the video frame data 181 is for the left eye, and the value stored in the V position 24 is 1080. To 2159, it can be determined that the video frame data 182 is for the right eye.
- AV content data including two-dimensional video data and AV content including three-dimensional video data have the same packet format. Can be transmitted efficiently.
- the value stored in each V position 24 of the left-eye video frame data 181 and the right-eye video frame data 182 is set to a value in the range of continuous values 0 to 2159.
- the present invention is not limited to this.
- the value of the V position 24 of the left-eye video frame data 181 is set to a value from 0 to 1079, and a blanking period (space) is provided for 45 lines.
- the value of the V position 24 of the video frame data 182 may be set to a value from 1125 to 2204 without being continuous.
- data other than video data such as audio data or dummy data may be transmitted during the blanking period.
- the VIC value may be another VIC value such as 4 (720p / 59.94 Hz) or 19 (720p / 50 Hz).
- the VIC value and the video data output specification (video format) assigned to each VIC in each of the above embodiments are merely examples, and may be other than the VIC and output specifications described above.
- the 3D structure represents frame packing, side-by-side (full), side-by-side (half), or frame alternative, but other alternatives such as line alternative, L + depth and L + depth + Gfx + G-depth It may represent a video structure.
- the number of lines of video data stored in one subpacket may be a value other than five.
- the packet body 15 is composed of the subpacket 18a to the subpacket 18d, but other values may be used as long as the number of subpackets of video data is 4 or less.
- the source device 110 inserts format information indicating whether the video data is two-dimensional data or three-dimensional data into a predetermined control command such as a stream start notification command.
- the sink device 120 may notify the sink device 120, and the sink device 120 may decode the video data packet from the source device 110 in accordance with the notified format information.
- the source device 110 and the sink device 120 are wirelessly connected by a wireless transmission path compliant with wireless HD.
- the source device 110 and the sink device 120 may be connected using a wireless transmission path or a wired transmission cable.
- the source device 110 transmits the first video frame data and the first video frame data for each video frame.
- the video position data of the first pixel stored in the packet is stored in the header of each packet for transmitting the composite video frame data.
- the synthesized video frame data is divided into a plurality of packets according to a predetermined packet format so as to be inserted as information for identifying the second video frame data, and the plurality of packets are generated. Transmit to device 120.
- the sink device 120 identifies the first video frame data and the second video frame data based on the horizontal position information and the vertical position information inserted in the video data packet from the source device 110. .
- the bandwidth management unit 121b is provided in the controller 121 of the sink device 120.
- the present invention is not limited to this, and may be provided in the controller 111 of the source device 110 or other devices.
- the H position 23 stores the horizontal position data in the horizontal display period Th
- the V position 24 stores the vertical position data in the vertical display period Tv.
- the present invention is not limited to this, and the H position 23 may store horizontal position information within the horizontal display period Th, and the V position 24 may store vertical position information within the vertical display period Tv.
- the video data is converted into the first video frame data and the second video frame by the source device.
- the first video frame data and the second video frame data are synthesized into synthesized video frame data, and the synthesized video frame data is transmitted.
- the horizontal position information in the horizontal display period and the vertical position information in the vertical display period of the first pixel of the synthesized video frame data stored in the packet are indicated by the first and second videos.
- the composite video frame data is inserted so as to be inserted as information for identifying the frame data.
- the packet is divided into a plurality of packets according to the packet format to generate the plurality of packets, and the plurality of generated packets are transmitted to the sink device.
- the sink device receives the transmitted packet and receives the received packet. Since the first video frame data and the second video frame data are identified based on horizontal position information and vertical position information inserted in a plurality of packets, video data of three-dimensional data is transmitted in real time. it can. In particular, it is possible to efficiently transmit AV content data including video data of two-dimensional data and video data of three-dimensional data by using a packet format of wireless HD video data according to the prior art.
- the present invention is particularly applicable to transmission of uncompressed AV content data in a wireless communication system compliant with a wireless communication standard such as wireless HD.
- Blanking period 161: Left-eye video frame data, 162 ... Right-eye video frame data, 163 ... composite video frame data, 171 ... Left eye video frame data, 172 ... right eye video frame data, 173 ... Composite video frame data, 181 ... Video frame data for the left eye, 182 ... right eye video frame data, 183 ... composite video frame data, 201: Left-eye video frame data, 202 ... right eye video frame data, 203 ... Composite video frame data, 209 ... Blanking period.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Time-Division Multiplex Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000f;
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0014;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0019;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x001e;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0023;
………;
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0424;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0429;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x042e;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0433;
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x000f;
………;
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x0424;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x0429;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x042e;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x0433;
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000f;
以降同様に続く.
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000f;
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0014;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0019;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x001e;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0023;
………;
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0208;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x020d;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0212;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0217;
第1のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x000f;
………;
第1のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0208;
第2のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x020d;
第3のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0212;
第4のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23P=0x0000、Vポジション24P=0x0217;
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x2、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x2、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x2、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x2、Hポジション23P=0x0000、Vポジション24P=0x000f;
………;
第1のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x0208;
第2のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x020d;
第3のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x0212;
第4のサブパケット:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23P=0x0000、Vポジション24P=0x0217;
第1のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0000;
第2のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x0005;
第3のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000a;
第4のサブパケット:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23P=0x0000、Vポジション24P=0x000f;
以降同様に続く.
シンク機器にビデオデータを所定のパケットフォーマットのビデオフレームを用いて送信するソース機器において、
上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成する第1のパケット処理手段と、
上記生成された複数のパケットを上記シンク機器に送信する送信手段とを備えたことを特徴とする。
上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを上記シンク機器に送信する制御手段とを備えたことを特徴とする。
上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを上記シンク機器に送信する制御手段とを備えたことを特徴とする。
上記ソース機器は、
上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成する第1のパケット処理手段と、
上記生成された複数のパケットを上記シンク機器に送信する送信手段とを備え、
上記シンク機器は、
上記送信されたパケットを受信し、上記受信された複数のパケットに挿入された水平位置情報及び垂直位置情報に基づいて、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを識別する第2のパケット処理手段を備えたことを特徴とする。
上記第2のパケット処理手段は、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを受信し、上記受信されたビデオフォーマット識別コード及び3Dストラクチャーに基づいて上記第2のビデオフォーマット識別コードテーブルを参照して、ビデオフォーマット及びビデオストラクチャーを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマット及びビデオストラクチャーに従ってデコードすることを特徴とする。
上記第2のパケット処理手段は、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを受信し、上記受信されたビデオフォーマット識別コードに基づいて上記第2のビデオフォーマット識別コードテーブルを参照してビデオフォーマットを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマットに従ってデコードすることを特徴とする。
上記ソース機器により、上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成する第1のパケット処理ステップと、
上記ソース機器により、上記生成された複数のパケットを上記シンク機器に送信する送信ステップと、
上記シンク機器により、上記送信されたパケットを受信し、上記受信された複数のパケットに挿入された水平位置情報及び垂直位置情報に基づいて、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを識別する第2のパケット処理ステップとを含むことを特徴とする。
上記第2のパケット処理ステップは、上記ソース機器から、上記フォーマット情報を受信し、上記受信された複数のパケットを上記受信されたフォーマット情報に従ってデコードするステップを含むことを特徴とする。
上記シンク機器により、上記ビデオフォーマット識別コード及び上記3Dストラクチャーを含む第2のビデオフォーマット識別コードテーブルを第2の記憶手段にあらかじめ格納するステップと、
上記ソース機器により、上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを上記シンク機器に送信する制御ステップとをさらに含み、
上記第2のパケット処理ステップは、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを受信し、上記受信されたビデオフォーマット識別コード及び3Dストラクチャーに基づいて上記第2のビデオフォーマット識別コードテーブルを参照して、ビデオフォーマット及びビデオストラクチャーを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマット及びビデオストラクチャーに従ってデコードするステップを含むことを特徴とする。
上記シンク機器により、上記ビデオフォーマット識別コードを含む第2のビデオフォーマット識別コードテーブルを第2の記憶手段にあらかじめ格納するステップと、
上記ソース機器により、上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを上記シンク機器に送信する制御ステップとをさらに含み、
上記第2のパケット処理ステップは、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを受信し、上記受信されたビデオフォーマット識別コードに基づいて上記第2のビデオフォーマット識別コードテーブルを参照してビデオフォーマットを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマットに従ってデコードするステップを含むことを特徴とする。
図1は、本発明の第1の実施形態に係るビデオデータのパケット伝送方法を用いてビデオデータを伝送する無線通信システムの構成を示すブロック図である。また、図2は、図1の無線通信システムにおいて伝送される合成ビデオフレームデータ3の水平同期信号と垂直同期信号との関係に基づいたデータ配置図であり、図3は、図1の無線通信システムにおいて用いるビデオデータのフレームフォーマットを示す図である。さらに、図4は、図1の無線通信システムによって実行されるAVコンテンツデータ伝送処理を示すシーケンス図である。なお、図1のソース機器110及びシンク機器120の各構成及び図4のAVコンテンツデータ伝送処理は、以下の第1~第4、第10及び第11の各実施形態に適用される。
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0023;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x085c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0861;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0866;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x086b;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000f;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x085c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0861;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0866;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x086b;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
以降同様に続く.
図5は、本発明の第2の実施形態に係る合成ビデオフレームデータ43の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第1の実施形態と比較して、合成ビデオフレームデータ43の生成方法のみが異なる。その他については、第1の実施形態と同様であるのでここでは動作の説明は省略する。
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0007;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x000c;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0011;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0212;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0214;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0217;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0219;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0780、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0780、Vポジション24=0x0007;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0212;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0780、Vポジション24=0x0214;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0217;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0780、Vポジション24=0x0219;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0007;
以降同様に続く.
図6は、本発明の第3の実施形態に係る合成ビデオフレームデータ55の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第1の実施形態と比較して、合成ビデオフレームデータ55の生成方法のみが異なる。その他については、第1の実施形態と同様であるのでここでは動作の説明は省略する。
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0023;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0208;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x020d;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0212;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0217;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x021c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0221;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0226;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x022b;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0424;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0429;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x042e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0433;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0438;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x043d;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0442;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0447;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0640;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0645;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x064a;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x064f;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0654;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0659;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x065e;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0663;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x085c;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0861;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0866;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x086b;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000f;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x085c;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0861;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0866;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x086b;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
以降同様に続く.
図7は、本発明の第4の実施形態に係る合成ビデオフレームデータ63の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第1の実施形態と比較して、合成ビデオフレームデータ63の生成方法のみが異なる。その他については、第1の実施形態と同様であるのでここでは動作の説明は省略する。
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0023;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0208;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x020d;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0212;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0217;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000f;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0208;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x020d;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0212;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0217;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x000f;
以降同様に続く.
図8は、本発明の第5の実施形態に係るAVコンテンツデータ伝送処理を示すシーケンス図であり、図9は、本発明の第5の実施形態に係る合成ビデオフレームデータ203の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第1の実施形態に比較して、以下の点が異なる。
(a)ソース機器110は、二次元データの複数のビデオフォーマットを識別するためのVICと、三次元データのビデオストラクチャーを識別するための3Dストラクチャーとを含むVICテーブル115tをメモリ115にあらかじめ格納し、シンク機器120は、二次元データの複数のビデオフォーマットを識別するためのVICと、三次元データのビデオストラクチャーを識別するための3Dストラクチャーとを含むVICテーブル127tにメモリ127にあらかじめ格納したこと。
(b)ソース機器110は、送信するビデオデータのVIC及び3Dストラクチャーをシンク機器120に通知し、シンク機器120は、通知されたVIC及び3Dストラクチャーに基づいてVICテーブル127tを参照してビデオフォーマット及びビデオストラクチャーを識別し、送信されたビデオデータのパケットを識別されたビデオフォーマット及び3Dストラクチャーに従ってデコードすること。
(c)左目用ビデオフレームデータ201の送信期間と右目用ビデオフレームデータ202の送信期間との間にブランキング期間209を設けたこと。
以下、第1の実施形態との相違点のみを説明する。
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0023;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0884;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0889;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x088E;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0893;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0898;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0889;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x088E;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0893;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0899;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
以降同様に続く.
図10は、本発明の第2の実施形態に係る合成ビデオフレームデータ143の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第5の実施形態と比較して、合成ビデオフレームデータ143の生成方法のみが異なる。その他については、第5の実施形態と同様であるのでここでは動作の説明は省略する。
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0007;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x000c;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0011;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x042E;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0430;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0433;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0435;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0780、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0780、Vポジション24=0x0007;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x042E;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0780、Vポジション24=0x0430;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0433;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0780、Vポジション24=0x0435;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0007;
以降同様に続く.
図11は、本発明の第7の実施形態に係る合成ビデオフレームデータ155と合成ビデオフレームデータ156の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第5の実施形態と比較して、合成ビデオフレームデータ155と合成ビデオフレームデータ156の生成方法のみが異なる。その他については、第5の実施形態と同様であるのでここでは動作の説明は省略する。
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0023;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x044D;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0452;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0457;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x045C;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0461;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0466;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x046B;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0470;
………;
第111のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0899;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x089B;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x08A3;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x08A8;
第112のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x08AD;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x08B2;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0003;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0008;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x089C;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x08A1;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x08A6;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x08AB;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x08B0;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0001;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0006;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000B;
以降同様に続く.
図12は、本発明の第8の実施形態に係る合成ビデオフレームデータ163の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第5の実施形態と比較して、合成ビデオフレームデータ163の生成方法のみが異なる。その他については、第5の実施形態と同様であるのでここでは動作の説明は省略する。
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0023;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0424;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0429;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x042E;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0433;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000f;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0424;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0429;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x042E;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0433;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x000f;
以降同様に続く.
図13は、本発明の第9の実施形態に係る合成ビデオフレームデータ95と合成ビデオフレームデータ96の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第5の実施形態と比較して、合成ビデオフレームデータ95と合成ビデオフレームデータ96の生成方法のみが異なる。その他については、第1の実施形態と同様であるのでここでは動作の説明は省略する。
第1のパケットのサブパケット18a~10d.
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0780、Vポジション24=0x0023;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0438;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x043D;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0442;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0447;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x044C;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0002;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0007;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000C;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0435;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x043A;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x043F;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0444;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0449;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x044E;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0004;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0009;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0432;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0438;
サブパケット18c:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x043D;
サブパケット18d:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0442;
サブパケット18a:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0447;
サブパケット18b:インターレースフィールドインディケーション21=0b1、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x044C;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0002;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0007;
以降同様に続く.
第10の実施形態.
図14は、本発明の第10の実施形態に係る合成ビデオフレームデータ173の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。また、図15~図16は、本発明の第10の実施形態に係るVICテーブル115t及び127tを示す表である。本実施形態は、第1の実施形態と比較して、合成ビデオフレームデータ173の大きさ及びVICテーブル115t及び127tにおいて割り当てられるVICの値のみが異なる。その他については、第1の実施形態と同様であるのでここでは動作の説明は省略する。
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0023;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x058c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0591;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0596;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x059b;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000f;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x058c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0591;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0596;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x059b;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
以降同様に続く.
(a)左目用ビデオフレームデータ171のビデオフレームナンバー22に格納される値と、右目用ビデオフレームデータ172のビデオフレームナンバー22に格納される値とは同一の値に設定される。
(b)左目用ビデオフレームデータ171のHポジション23と、右目用ビデオフレームデータ172のHポジション23に格納される各値は、0から1279までの間の値に設定される。
(c)左目用ビデオフレームデータ171のVポジション24に格納される値は0から719までの値に設定され、右目用ビデオフレームデータ172のVポジション24に格納される値は720から1439までの値に設定される。
図17は、本発明の第11の実施形態に係る合成ビデオフレームデータ183の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。本実施形態は、第10の実施形態と比較して、合成ビデオフレームデータ173の水平画素数、垂直画素数及び垂直同期周波数のみが異なる。その他については、第10の実施形態と同様であるのでここでは動作の説明は省略する。
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0014;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0019;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x001e;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0023;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x085c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0861;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0866;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x086b;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x1、Hポジション23=0x0000、Vポジション24=0x000f;
………;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x085c;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0861;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x0866;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x7、Hポジション23=0x0000、Vポジション24=0x086b;
サブパケット18a:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0000;
サブパケット18b:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x0005;
サブパケット18c:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000a;
サブパケット18d:インターレースフィールドインディケーション21=0b0、ビデオフレームナンバー22=0x0、Hポジション23=0x0000、Vポジション24=0x000f;
以降同様に続く.
(a)左目用ビデオフレームデータ181のビデオフレームナンバー22に格納される値と、右目用ビデオフレームデータ182のビデオフレームナンバー22に格納される値とは同一の値に設定される。
(b)左目用ビデオフレームデータ181のHポジション23と、右目用ビデオフレームデータ182のHポジション23に格納される各値は、0から1919までの間の値に設定される。
(c)左目用ビデオフレームデータ181のVポジション24に格納される値は0から1079までの値に設定され、右目用ビデオフレームデータ182のVポジション24に格納される値は1080から2159までの値に設定される。
2…右目用ビデオフレームデータ、
3…合成ビデオフレームデータ、
11…HRPプリアンブル、
12…HRPヘッダ、
13…MACヘッダ、
14…HCS、
15…パケットボディ、
16…ビームトラッキング、
17a~17d…ビデオコントロール、
18a~18d…サブパケット、
20…パーティションインデックス、
21…インターレースフィールドインディケーション、
22…ビデオフレームナンバー、
23…Hポジション、
24…Vポジション、
41…左目用ビデオフレームデータ、
42…右目用ビデオフレームデータ、
43…合成ビデオフレームデータ、
51…左目用トップビデオフレームデータ、
52…右目用トップビデオフレームデータ、
53…左目用ボトムビデオフレームデータ、
54…右目用ボトムビデオフレームデータ、
55…合成ビデオフレームデータ、
61…左目用ビデオフレームデータ、
62…右目用ビデオフレームデータ、
63…合成ビデオフレームデータ、
91…左目用トップビデオフレームデータ、
92…右目用トップビデオフレームデータ、
93…左目用ボトムビデオフレームデータ、
94…右目用ボトムビデオフレームデータ、
95…合成ビデオフレームデータ、
96…合成ビデオフレームデータ、
97,99…ブランキング期間、
110…ソース機器、
111…コントローラ、
112…映像音声再生装置、
113…パケット処理回路、
114…パケット無線送受信回路、
115…メモリ、
115t…VICテーブル、
116…アンテナ、
120…シンク機器、
121…コントローラ、
122…パケット無線送受信回路、
123…パケット処理回路、
124…映像音声処理回路、
125…スピーカ、
126…ディスプレイ、
127…メモリ、
127t…VICテーブル、
128…アンテナ、
141…左目用ビデオフレームデータ、
142…右目用ビデオフレームデータ、
143…合成ビデオフレームデータ、
151…左目用トップビデオフレームデータ、
152…右目用トップビデオフレームデータ、
153…左目用ボトムビデオフレームデータ、
154…右目用ボトムビデオフレームデータ、
155…合成ビデオフレームデータ、
156…合成ビデオフレームデータ、
157~159…ブランキング期間、
161…左目用ビデオフレームデータ、
162…右目用ビデオフレームデータ、
163…合成ビデオフレームデータ、
171…左目用ビデオフレームデータ、
172…右目用ビデオフレームデータ、
173…合成ビデオフレームデータ、
181…左目用ビデオフレームデータ、
182…右目用ビデオフレームデータ、
183…合成ビデオフレームデータ、
201…左目用ビデオフレームデータ、
202…右目用ビデオフレームデータ、
203…合成ビデオフレームデータ、
209…ブランキング期間。
Claims (20)
- シンク機器にビデオデータを所定のパケットフォーマットのビデオフレームを用いて送信するソース機器において、
上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成する第1のパケット処理手段と、
上記生成された複数のパケットを上記シンク機器に送信する送信手段とを備えたことを特徴とするソース機器。 - 上記第1のパケット処理手段は、上記ビデオフレームの水平表示期間において、垂直表示期間の前半で所定のライン数の第1のビデオフレームデータを送信した後に、上記垂直表示期間の後半で上記所定のライン数の第2のビデオフレームデータを送信するように、上記合成ビデオフレームデータを構成することを特徴とする請求項1記載のソース機器。
- 上記第1のパケット処理手段は、上記所定のライン数の第1のビデオフレームデータの送信期間と上記所定のライン数の第2のビデオフレームデータの送信期間との間に所定のブランキング期間を設けたことを特徴とする請求項2記載のソース機器。
- 上記ビデオデータが、上記三次元データと第3のビデオフレームデータを含む二次元データとのうちのいずれであるかを表すフォーマット情報を所定の制御コマンドに挿入して、上記シンク機器に送信する制御手段を備えたことを特徴とする請求項1から3までのうちのいずれか1つの請求項記載のソース機器。
- 第3のビデオフレームデータを含む二次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記三次元データの複数のビデオストラクチャーを識別するための3Dストラクチャーとを含む第1のビデオフォーマット識別コードテーブルをあらかじめ格納した第1の記憶手段と、
上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを上記シンク機器に送信する制御手段とを備えたことを特徴とする請求項1から3までのうちのいずれか1つの請求項記載のソース機器。 - (a)第3のビデオフレームデータを含む二次元データの複数のビデオフォーマット及び(b)上記三次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードを含む第1のビデオフォーマット識別コードテーブルをあらかじめ格納した第1の記憶手段と、
上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを上記シンク機器に送信する制御手段とを備えたことを特徴とする請求項1から3までのうちのいずれか1つの請求項記載のソース機器。 - ビデオデータを所定のパケットフォーマットのビデオフレームを用いて送信するソース機器から上記ビデオデータを受信するシンク機器において、
上記ソース機器は、
上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成する第1のパケット処理手段と、
上記生成された複数のパケットを上記シンク機器に送信する送信手段とを備え、
上記シンク機器は、
上記送信されたパケットを受信し、上記受信された複数のパケットに挿入された水平位置情報及び垂直位置情報に基づいて、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを識別する第2のパケット処理手段を備えたことを特徴とするシンク機器。 - 上記第2のパケット処理手段は、上記ソース機器から、上記ビデオデータが上記三次元データと第3のビデオフレームデータを含む二次元データとのうちのいずれであるかを表すフォーマット情報を受信し、上記受信された複数のパケットを上記受信されたフォーマット情報に従ってデコードすることを特徴とする請求項7記載のシンク機器。
- 第3のビデオフレームデータを含む二次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記三次元データの複数のビデオストラクチャーを識別するための3Dストラクチャーとを含む第2のビデオフォーマット識別コードテーブルをあらかじめ格納した第2の記憶手段をさらに備え、
上記第2のパケット処理手段は、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを受信し、上記受信されたビデオフォーマット識別コード及び3Dストラクチャーに基づいて上記第2のビデオフォーマット識別コードテーブルを参照して、ビデオフォーマット及びビデオストラクチャーを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマット及びビデオストラクチャーに従ってデコードすることを特徴とする請求項7記載のシンク機器。 - (a)第3のビデオフレームデータを含む二次元データの複数のビデオフォーマット及び(b)上記三次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードを含む第2のビデオフォーマット識別コードテーブルをあらかじめ格納した第2の記憶手段をさらに備え、
上記第2のパケット処理手段は、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを受信し、上記受信されたビデオフォーマット識別コードに基づいて上記第2のビデオフォーマット識別コードテーブルを参照してビデオフォーマットを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマットに従ってデコードすることを特徴とする請求項7記載のシンク機器。 - 請求項1から3までのうちのいずれか1つの請求項記載のソース機器と、
請求項7記載のシンク機器とを備えたことを特徴とする通信システム。 - 請求項4記載のソース機器と、
請求項8記載のシンク機器とを備えたことを特徴とする通信システム。 - 請求項5記載のソース機器と、
請求項9記載のシンク機器とを備えたことを特徴とする通信システム。 - 請求項6記載のソース機器と、
請求項10記載のシンク機器とを備えたことを特徴とする通信システム。 - ソース機器からシンク機器にビデオデータを所定のパケットフォーマットのビデオフレームを用いて送信するビデオデータのパケット伝送方法において、
上記ソース機器により、上記ビデオデータが第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元データであるときに、上記ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを伝送するための各パケットのヘッダに、当該パケットに格納された合成ビデオフレームデータの先頭ピクセルの水平表示期間内の水平位置情報及び垂直表示期間内の垂直位置情報を、上記第1及び第2のビデオフレームデータを識別するための情報として挿入するように、上記合成ビデオフレームデータを上記パケットフォーマットに従って複数のパケットに分割して当該複数のパケットを生成する第1のパケット処理ステップと、
上記ソース機器により、上記生成された複数のパケットを上記シンク機器に送信する送信ステップと、
上記シンク機器により、上記送信されたパケットを受信し、上記受信された複数のパケットに挿入された水平位置情報及び垂直位置情報に基づいて、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを識別する第2のパケット処理ステップとを含むことを特徴とするビデオデータのパケット伝送方法。 - 上記第1のパケット処理ステップは、上記ビデオフレームの水平表示期間において、垂直表示期間の前半で所定のライン数の第1のビデオフレームデータを送信した後に、上記垂直表示期間の後半で上記所定のライン数の第2のビデオフレームデータを送信するように、上記合成ビデオフレームデータを構成するステップを含むこと特徴とする請求項15記載のビデオデータのパケット伝送方法。
- 上記第1のパケット処理ステップは、上記所定のライン数の第1のビデオフレームデータの送信期間と上記所定のライン数の第2のビデオフレームデータの送信期間との間に所定のブランキング期間を設けるステップを含むこと特徴とする請求項16記載のビデオデータのパケット伝送方法。
- 上記ソース機器により、上記ビデオデータが上記三次元データと第3のビデオフレームデータを含む二次元データとのうちのいずれであるかを表すフォーマット情報を所定の制御コマンドに挿入して、上記シンク機器に送信する制御ステップをさらに含み、
上記第2のパケット処理ステップは、上記ソース機器から、上記フォーマット情報を受信し、上記受信された複数のパケットを上記受信されたフォーマット情報に従ってデコードするステップを含むことを特徴とする請求項15から17までのうちのいずれか1つの請求項記載のビデオデータのパケット伝送方法。 - 上記ソース機器により、第3のビデオフレームデータを含む二次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記三次元データの複数のビデオストラクチャーを識別するための3Dストラクチャーとを含む第1のビデオフォーマット識別コードテーブルを第1の記憶手段にあらかじめ格納するステップと、
上記シンク機器により、上記ビデオフォーマット識別コード及び上記3Dストラクチャーを含む第2のビデオフォーマット識別コードテーブルを第2の記憶手段にあらかじめ格納するステップと、
上記ソース機器により、上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを上記シンク機器に送信する制御ステップとをさらに含み、
上記第2のパケット処理ステップは、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードと、上記ビデオデータのビデオストラクチャーを識別するための3Dストラクチャーとを受信し、上記受信されたビデオフォーマット識別コード及び3Dストラクチャーに基づいて上記第2のビデオフォーマット識別コードテーブルを参照して、ビデオフォーマット及びビデオストラクチャーを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマット及びビデオストラクチャーに従ってデコードするステップを含むことを特徴とする請求項15から17までのうちのいずれか1つの請求項記載のビデオデータのパケット伝送方法。 - 上記ソース機器により、(a)第3のビデオフレームデータを含む二次元データの複数のビデオフォーマット及び(b)上記三次元データの複数のビデオフォーマットを識別するためのビデオフォーマット識別コードを含む第1のビデオフォーマット識別コードテーブルを第1の記憶手段にあらかじめ格納するステップと、
上記シンク機器により、上記ビデオフォーマット識別コードを含む第2のビデオフォーマット識別コードテーブルを第2の記憶手段にあらかじめ格納するステップと、
上記ソース機器により、上記第1のビデオフォーマット識別コードテーブルを参照して、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを上記シンク機器に送信する制御ステップとをさらに含み、
上記第2のパケット処理ステップは、上記ソース機器から、上記ビデオデータのビデオフォーマットを識別するためのビデオフォーマット識別コードを受信し、上記受信されたビデオフォーマット識別コードに基づいて上記第2のビデオフォーマット識別コードテーブルを参照してビデオフォーマットを識別し、上記受信された複数のパケットを上記識別されたビデオフォーマットに従ってデコードするステップを含むことを特徴とする請求項15から17までのうちのいずれか1つの請求項記載のビデオデータのパケット伝送方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011513135A JP5460702B2 (ja) | 2009-05-14 | 2009-12-22 | ビデオデータのパケット伝送方法 |
US13/318,930 US8953017B2 (en) | 2009-05-14 | 2009-12-22 | Source device, sink device, communication system and method for wirelessly transmitting three-dimensional video data using packets |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009117800 | 2009-05-14 | ||
JP2009-117800 | 2009-05-14 | ||
JP2009118982 | 2009-05-15 | ||
JP2009-118982 | 2009-05-15 | ||
JP2009-210416 | 2009-09-11 | ||
JP2009210416 | 2009-09-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2010131313A1 true WO2010131313A1 (ja) | 2010-11-18 |
Family
ID=43084705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2009/007120 WO2010131313A1 (ja) | 2009-05-14 | 2009-12-22 | ビデオデータのパケット伝送方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8953017B2 (ja) |
JP (1) | JP5460702B2 (ja) |
WO (1) | WO2010131313A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012065160A (ja) * | 2010-09-16 | 2012-03-29 | Sony Computer Entertainment Inc | 動画像処理装置および動画像処理方法 |
US20130033491A1 (en) * | 2011-08-04 | 2013-02-07 | Dolby Laboratories Licensing Corporation | Method and Apparatus for Full Resolution 3D Display |
ITTO20120134A1 (it) * | 2012-02-16 | 2013-08-17 | Sisvel Technology Srl | Metodo, apparato e sistema di impacchettamento di frame utilizzanti un nuovo formato "frame compatible" per la codifica 3d. |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6467822B2 (ja) * | 2014-08-29 | 2019-02-13 | セイコーエプソン株式会社 | 表示システム、送信装置、及び、表示システムの制御方法 |
US10332296B2 (en) * | 2016-07-05 | 2019-06-25 | Ubitus Inc. | Overlaying multi-source media in VRAM |
US20180130443A1 (en) * | 2016-11-04 | 2018-05-10 | Nausheen Ansari | Techniques for managing transmission and display of a display data stream |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0746631A (ja) * | 1993-07-28 | 1995-02-14 | Sony Corp | 立体映像表示装置 |
JP2005006114A (ja) * | 2003-06-12 | 2005-01-06 | Sharp Corp | 放送データ送信装置、放送データ送信方法および放送データ受信装置 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5767898A (en) * | 1994-06-23 | 1998-06-16 | Sanyo Electric Co., Ltd. | Three-dimensional image coding by merger of left and right images |
KR20000075982A (ko) | 1997-03-07 | 2000-12-26 | 다카노 야스아키 | 디지탈 방송 수신기 및 디스플레이 장치 |
JPH10257525A (ja) | 1997-03-07 | 1998-09-25 | Sanyo Electric Co Ltd | ディジタル放送受信機 |
JP2002095018A (ja) | 2000-09-12 | 2002-03-29 | Canon Inc | 画像表示制御装置及び画像表示システム、並びに画像データの表示方法 |
JP3789794B2 (ja) * | 2001-09-26 | 2006-06-28 | 三洋電機株式会社 | 立体画像処理方法、装置、およびシステム |
KR100454194B1 (ko) * | 2001-12-28 | 2004-10-26 | 한국전자통신연구원 | 다중 디스플레이 방식을 지원하는 양안식 동영상 부호화/복호화 장치 및 그 방법 |
US7017144B2 (en) * | 2002-06-17 | 2006-03-21 | Microsoft Corporation | Combined image views and method of creating images |
US6947954B2 (en) * | 2002-06-17 | 2005-09-20 | Microsoft Corporation | Image server store system and method using combined image views |
EP1519582A4 (en) | 2002-06-28 | 2007-01-31 | Sharp Kk | Image data delivery system, image data sending device therefor and image data receiving device therefor |
KR100813961B1 (ko) | 2005-06-14 | 2008-03-14 | 삼성전자주식회사 | 영상 수신장치 |
KR100828358B1 (ko) | 2005-06-14 | 2008-05-08 | 삼성전자주식회사 | 영상 디스플레이 모드 전환 방법, 장치, 및 그 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체 |
US20070230461A1 (en) | 2006-03-29 | 2007-10-04 | Samsung Electronics Co., Ltd. | Method and system for video data packetization for transmission over wireless channels |
WO2007136166A1 (en) * | 2006-05-23 | 2007-11-29 | Lg Electronics Inc. | Digital broadcasting system and method of processing data |
US8279784B2 (en) | 2006-11-01 | 2012-10-02 | Sibeam, Inc. | Wireless HD AV packet format |
US8306060B2 (en) | 2006-11-07 | 2012-11-06 | Samsung Electronics Co., Ltd. | System and method for wireless communication of uncompressed video having a composite frame format |
US8749615B2 (en) * | 2007-06-07 | 2014-06-10 | Reald Inc. | Demultiplexing for stereoplexed film and video applications |
US8471893B2 (en) * | 2007-06-26 | 2013-06-25 | Samsung Electronics Co., Ltd. | Method and apparatus for generating stereoscopic image bitstream using block interleaved method |
US8339967B2 (en) * | 2007-09-18 | 2012-12-25 | Samsung Electronics Co., Ltd. | Method and apparatus for generating data frame |
KR101632076B1 (ko) * | 2009-04-13 | 2016-06-21 | 삼성전자주식회사 | 우선순위에 따른 스테레오스코픽 영상 데이터의 전송 장치 및 방법 |
JP5367814B2 (ja) * | 2009-05-14 | 2013-12-11 | パナソニック株式会社 | 映像データの伝送方法 |
WO2010131314A1 (ja) * | 2009-05-14 | 2010-11-18 | パナソニック株式会社 | ビデオデータの伝送方法 |
KR101286912B1 (ko) * | 2009-12-18 | 2013-07-16 | 한국전자통신연구원 | 3차원 저장장치를 이용한 가변길이 패킷의 fec 인코딩 및 fec 디코딩 방법 |
-
2009
- 2009-12-22 US US13/318,930 patent/US8953017B2/en not_active Expired - Fee Related
- 2009-12-22 JP JP2011513135A patent/JP5460702B2/ja not_active Expired - Fee Related
- 2009-12-22 WO PCT/JP2009/007120 patent/WO2010131313A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0746631A (ja) * | 1993-07-28 | 1995-02-14 | Sony Corp | 立体映像表示装置 |
JP2005006114A (ja) * | 2003-06-12 | 2005-01-06 | Sharp Corp | 放送データ送信装置、放送データ送信方法および放送データ受信装置 |
Non-Patent Citations (2)
Title |
---|
"High-Definition Multimedia Interface Specification Version 1.4 Extraction of 3D Signaling Portion", HDMI LICENSING LLC, 2 February 2010 (2010-02-02) * |
"WirelessHD Specification Version 1.0 Overview", WIRELESSHD LLC, 9 October 2007 (2007-10-09) * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012065160A (ja) * | 2010-09-16 | 2012-03-29 | Sony Computer Entertainment Inc | 動画像処理装置および動画像処理方法 |
US9172941B2 (en) | 2010-09-16 | 2015-10-27 | Sony Corporation | Moving image processing device and moving image processing method |
US20130033491A1 (en) * | 2011-08-04 | 2013-02-07 | Dolby Laboratories Licensing Corporation | Method and Apparatus for Full Resolution 3D Display |
US9338445B2 (en) * | 2011-08-04 | 2016-05-10 | Dolby Laboratories Licensing Corporation | Method and apparatus for full resolution 3D display |
ITTO20120134A1 (it) * | 2012-02-16 | 2013-08-17 | Sisvel Technology Srl | Metodo, apparato e sistema di impacchettamento di frame utilizzanti un nuovo formato "frame compatible" per la codifica 3d. |
WO2013121391A3 (en) * | 2012-02-16 | 2014-02-13 | S.I.Sv.El Societa'italiana Per Lo Sviluppo Dell'elettronica S.P.A. | Frame packing method, apparatus ans system using a new 3d coding "frame compatible" format |
Also Published As
Publication number | Publication date |
---|---|
US8953017B2 (en) | 2015-02-10 |
JPWO2010131313A1 (ja) | 2012-11-01 |
US20120044325A1 (en) | 2012-02-23 |
JP5460702B2 (ja) | 2014-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5351960B2 (ja) | ビデオデータの伝送方法 | |
JP5367814B2 (ja) | 映像データの伝送方法 | |
JP5338166B2 (ja) | 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法 | |
EP2391139B1 (en) | 3D image data transmission and reception | |
WO2010026736A1 (ja) | 立体映像伝送システム、映像表示装置および映像出力装置 | |
JP5460530B2 (ja) | 表示システム、表示装置、及び中継装置 | |
US7839896B2 (en) | Video transmission system | |
JP5089493B2 (ja) | デジタル映像データ送信装置、デジタル映像データ受信装置、デジタル映像データ伝送システム、デジタル映像データ送信方法、デジタル映像データ受信方法、およびデジタル映像データ伝送方法 | |
JP5460702B2 (ja) | ビデオデータのパケット伝送方法 | |
JP2009135614A (ja) | 送信装置、受信装置、通信システム、送信方法、受信方法及びそれらのプログラム | |
US20130141534A1 (en) | Image processing device and method | |
JP5655393B2 (ja) | 画像データ送信装置、画像データ送信装置の制御方法、画像データ送信方法および画像データ受信装置 | |
JP2013062839A (ja) | 映像伝送システム、映像入力装置および映像出力装置 | |
JP5775200B2 (ja) | 受信装置及び受信方法 | |
JP2012060205A (ja) | 表示システム、表示装置、及び中継装置 | |
JP6098678B2 (ja) | 送信方法および送信装置 | |
JP2013229885A (ja) | 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法 | |
JP5621944B2 (ja) | 送信装置および送信方法 | |
JP5583866B2 (ja) | 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法 | |
JP2015029331A (ja) | 送受信システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 09844587 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 13318930 Country of ref document: US Ref document number: 2011513135 Country of ref document: JP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 09844587 Country of ref document: EP Kind code of ref document: A1 |