WO2010131314A1 - ビデオデータの伝送方法 - Google Patents

ビデオデータの伝送方法 Download PDF

Info

Publication number
WO2010131314A1
WO2010131314A1 PCT/JP2009/007156 JP2009007156W WO2010131314A1 WO 2010131314 A1 WO2010131314 A1 WO 2010131314A1 JP 2009007156 W JP2009007156 W JP 2009007156W WO 2010131314 A1 WO2010131314 A1 WO 2010131314A1
Authority
WO
WIPO (PCT)
Prior art keywords
video data
data
transmitted
video
source device
Prior art date
Application number
PCT/JP2009/007156
Other languages
English (en)
French (fr)
Inventor
竜田明浩
船引誠
大植裕司
三谷浩
西尾歳朗
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2011513136A priority Critical patent/JP5351960B2/ja
Publication of WO2010131314A1 publication Critical patent/WO2010131314A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43637Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector

Definitions

  • the present invention relates to a video data transmission method, a source device for transmitting the video data, a sink device for receiving the video data, and a wireless communication system including the source device and the sink device, in particular, video frame data for right eye And a method of transmitting three-dimensional (hereinafter also referred to as 3D or stereoscopic) video data including first and second video frame data such as left-eye video frame data, a source device for transmitting the video data,
  • 3D or stereoscopic three-dimensional
  • the present invention relates to a sink device for receiving the video data, and a communication system including the source device and the sink device.
  • WirelessHD WirelessHD
  • AV Audio and Visual
  • WirelessHD is for viewing high-definition video data stored in source devices such as digital video recorders, set-top boxes, personal computers, etc. on sink devices such as high-definition TVs without connecting the source devices to the sink device
  • source devices such as digital video recorders, set-top boxes, personal computers, etc.
  • sink devices such as high-definition TVs without connecting the source devices to the sink device
  • it since it also includes bi-directional control signals, it is possible to control the television apparatus and the digital video recorder to be interlocked, or configure a home theater etc. using a plurality of AV apparatuses to unify these AV apparatuses. Protocols for these controls can be defined.
  • DTCP Digital Transmission Content Protection
  • the wireless HD wireless transmission method according to the prior art is described, for example, in Patent Documents 1 and 2 and Non-Patent Document 1. Further, the wireless transmission method of AV data according to the prior art is described in Patent Documents 3 and 4.
  • video data is two-dimensional (also referred to as 2D or flat) content data (hereinafter referred to as two-dimensional data) including one frame data. It was Therefore, when the video data is three-dimensional content data (hereinafter referred to as three-dimensional data) including first and second video frame data such as right-eye video frame data and left-eye video frame data, the video data is relevant. Three-dimensional content data could not be wirelessly transmitted from a source device to a sink device such as a 3D television device.
  • a sink device such as a 3D television device.
  • patent documents 5 and 6 disclose the transmission method of the said three-dimensional data, they did not disclose the specific method structure for wirelessly transmitting three-dimensional data in wireless HD.
  • a source device for transmitting the video data a sink device for receiving the video data, and a communication system including the source device and the sink device.
  • a source device is a source device for a communication system for transmitting video data from a source device to a sink device.
  • three-dimensional video data in which the type of the video data to be transmitted includes (a) first video frame data and second video frame data; ) Data representing any one of two-dimensional video data including third video frame data, and the three-dimensional video data when the video data to be transmitted is three-dimensional video data
  • a first control unit for transmitting an output format notification message including the format information of (1) to the sink device.
  • the source device when the video data is three-dimensional video data, the source device composites video frame data of the first video frame data and the second video frame data for each video frame. And transmitting means for transmitting the synthesized video frame data to the sink device.
  • the format information includes information of a format structure for identifying a parameter for combining the first video frame data and the second video frame data into composite video frame data.
  • the output format notification message may be any one of the two-dimensional video data to be transmitted and the three-dimensional video data to be transmitted using a predetermined format structure.
  • the output format notification message may be any one of the two-dimensional video data and the three-dimensional video data as the type of the video data to be transmitted, and the video to be transmitted
  • a 3D structure storing a 3D structure code for identifying which format structure of the predetermined plurality of format structures is to be used when the data is three-dimensional video data comprising an area.
  • the output format notification message includes the type of the video data to be transmitted and the format structure of the three-dimensional video data when the type of the video data is three-dimensional video data.
  • the output format notification message is (A) a 3D area storing data for identifying whether the type of video data to be transmitted is two-dimensional video data or three-dimensional video data; (B) When the type of the video data to be transmitted is three-dimensional video data, which format structure of the predetermined plural format structures is used to identify the three-dimensional video data is transmitted 3D structure area, which stores 3D structure code for (C) A 3D metadata area for storing 3D metadata of the three-dimensional video data when the type of the video data to be transmitted is three-dimensional video data.
  • Source equipment is
  • the format information further includes a field rate of the video data to be transmitted, the number of vertical effective pixels, the number of horizontal effective pixels, and a vertical synchronization frequency.
  • Source device according to any one of the claims 1 to 6.
  • the output format notification message includes a parameter common to the two-dimensional video data and the three-dimensional video data.
  • a sink device is a sink device for a communication system for transmitting video data from a source device to the sink device,
  • the type of video data transmitted by the source device includes (a) three-dimensional video data including first video frame data and second video frame data, and (b) second video frame data.
  • An output format notification message including data identifying which of the two-dimensional video data and format information of the three-dimensional video data when the transmitted video data is three-dimensional video data Based on the received output format notification message, the type of the video data to be transmitted, and the third order when the type of the video data to be transmitted is three-dimensional video data
  • Second control means for identifying format information of the original video data; And a receiver for receiving the video data from the source device and decoding the video data based on the identified type and format information.
  • a communication system is a communication system for transmitting video data from a source device to a sink device, characterized in that the communication device includes the source device and the sink device.
  • a video data transmission method is a video data transmission method for a communication system for transmitting video data from a source device to a sink device, Before transmitting the video data to the sink device by the source device, a three-dimensional video in which the type of the video data to be transmitted includes (a) first video frame data and second video frame data Data identifying either data or (b) two-dimensional video data including third video frame data, and the video data to be transmitted is three-dimensional video data Sending an output format notification message including format information of the three-dimensional video data to the sink device; The sink device receives an output format notification message from the source device, and the type of the video data to be transmitted and the type of the video data to be transmitted are three-dimensional based on the received output format notification message. Identifying format information of the three-dimensional video data in the case of video data of Receiving the video data from the source device by the sink device, and decoding the video data based on the identified type and format information.
  • a source device for transmitting the video data a sink device for receiving the video data, and a communication system including the source device and the sink device
  • the source device is video data
  • the type of the video data to be transmitted includes (a) three-dimensional video data including first video frame data and second video frame data; (b) a third Data identifying which one of two-dimensional video data including video frame data, and format information of the three-dimensional video data when the video data to be transmitted is three-dimensional video data Sending an output format notification message to the sink device.
  • the sink device receives an output format notification message from the source device, and the type of the video data to be transmitted and the type of the video data to be transmitted are tertiary based on the received output format notification message. Identify format information of the three-dimensional video data in the case of original video data, receive the video data from the source device, and decode the video data based on the identified type and format information Because it can transmit three-dimensional video data.
  • FIG. 6 It is a block diagram showing composition of a radio communications system which transmits video data using a transmission method of video data concerning a 1st embodiment of the present invention. It is a table showing a first part of VIC (Video format Identification Code) tables 115t and 127t of FIG. It is a table which shows the 2nd part of VIC tables 115t and 127t of FIG. It is a sequence diagram which shows operation
  • FIG. 6 is a data layout diagram based on the relationship between horizontal synchronization signal and vertical synchronization signal of composite video frame data 183 generated by the source device 110 of FIG.
  • FIG. 1 It is a block diagram which shows the structure of the radio
  • FIG. 11 is a table showing first parts of VIC tables 115 ta and 127 ta in FIG. FIG.
  • FIG. 11 is a table showing second portions of VIC tables 115 ta and 127 ta of FIG. 10. It is a figure which shows the format of the output format notification message 10B which concerns on the 3rd Embodiment of this invention. It is a figure which shows the format of the output format notification message 10C which concerns on the 4th Embodiment of this invention. It is a figure which shows the format of output format notification message 10D which concerns on the 5th Embodiment of this invention. It is a figure which shows the format of the output format notification message 10E based on the 6th Embodiment of this invention. It is a table which shows the 1st portion of VIC tables 115ta and 127ta concerning a 7th embodiment of the present invention. It is a table which shows the 2nd part of VIC tables 115ta and 127ta concerning a 7th embodiment of the present invention.
  • FIG. 1 is a block diagram showing a configuration of a wireless communication system for transmitting video data using a video data transmission method according to a first embodiment of the present invention
  • FIG. 2 and FIG. 3 are VICs of FIG. It is a table showing tables 115t and 127t.
  • the source device 110 before transmitting the video data to the sink device 120, transmits the video data of the above-mentioned type (a) left-eye video frame data 181 and right-eye video Data representing which of three-dimensional video data including frame data 183 and (b) two-dimensional video data including one video frame data, and the above-mentioned transmitted video data is tertiary
  • a controller 111 is provided to transmit an output format notification message 10 including format information of the three-dimensional video data in the case of the original video data to the sink device.
  • the source device 110 when the video data to be transmitted is three-dimensional video data, the source device 110 combines the left-eye video frame data 181 and the right-eye video frame data 182 into composite video frame data 183 for each video frame.
  • a packet processing circuit 113 and a packet radio transmission / reception circuit 114 for transmitting composite video frame data 183 to the sink device 120 are provided.
  • the packet radio transmission / reception circuit 114 and the packet processing circuit 113 constitute a transmission circuit.
  • the sink device 120 receives the output format notification message 10 from the source device 110, and based on the received output format notification message 10, the type of video data to be transmitted and the type of video data to be transmitted Is a three-dimensional video data, the controller 121 identifies format information of the three-dimensional video data, the packet radio transmitting / receiving circuit 122 for receiving video data from the source device 110, and the type of video data identified above And a packet processing circuit 123 for decoding based on the format information.
  • the packet radio transmission / reception circuit 122 and the packet processing circuit 123 constitute a reception circuit.
  • the wireless communication system conforms to wireless HD.
  • the source device 110 functioning as a source device of AV content data includes a video and audio reproduction device 112, a packet processing circuit 113, a packet wireless transmitting / receiving circuit 114 having an antenna 116, and a memory 115 storing VIC table 115t in advance. And a controller 111 for controlling the operation of these devices and circuits 112 to 115.
  • the video and audio reproduction device 112 is, for example, a DVD player, reproduces video data and audio data from an external storage device or a recording medium such as an MD or a DVD, and outputs the reproduced data to the packet processing circuit 113.
  • the packet processing circuit 113 converts the input video data and audio data into digital signals in the form of a predetermined packet for each video frame, and outputs the digital signals to the packet radio transmission / reception circuit 114. Furthermore, the packet processing circuit 113 converts a control message from the controller 111 (for example, the output format notification message 10 to be described in detail later) into a digital signal of a predetermined packet format and outputs the digital signal to the packet wireless transmitting / receiving circuit 114. .
  • the packet radio transmission / reception circuit 114 digitally modulates the carrier wave signal according to the input digital signal, and transmits the modulated radio signal to the packet radio transmission / reception circuit 122 of the sink device 120 via the antenna 116.
  • a wireless signal transmitted wirelessly from the sink device 120 is received by the packet wireless transmitting / receiving circuit 114 via the antenna 116, and the packet wireless transmitting / receiving circuit 114 demodulates the received wireless signal into a baseband signal, Output to 113.
  • the packet processing circuit 113 extracts only a predetermined control command from the input baseband signal by a predetermined packet separation process, and then outputs the command to the controller 111.
  • the sink device 120 displays two-dimensional video data and three-dimensional video data, the packet wireless transmitting / receiving circuit 122 having the antenna 128, the packet processing circuit 123, the video / audio processing circuit 124, the speaker 125, A display 126, a memory 127 storing EDID (Extended Display Identification Data) data 127d and a VIC table 127t in advance, and a controller 121 controlling operations of these circuits 122 to 124 and 127 are included. Further, the controller 121 is configured to include a band management unit 121 b that manages the use band of the wireless network and the timing control of signal transmission.
  • EDID Extended Display Identification Data
  • the packet radio transmission / reception circuit 122 demodulates the radio signal received via the antenna 128 into a baseband signal and outputs the result to the packet processing circuit 123.
  • the packet processing circuit 123 decodes the received packet by taking out only video data, audio data and a predetermined control command from the input digital signal by a predetermined packet separation process, and processes the video data and the audio data to video and audio processing While outputting to the circuit 124, the control command is output to the controller 121.
  • the video and audio processing circuit 124 performs predetermined signal processing and D / A conversion processing on the input audio data, and then outputs the audio data to the speaker 125 to output audio while performing predetermined signal processing on the input video data. After the D / A conversion processing is executed, the data is output and displayed on the display 126.
  • VIC tables 115t and 127t each include a VIC (Video Format Information Identifier) for identifying a plurality of video formats of video data.
  • the video format represents the output specification of video data in the sink device 120, and the number of vertical effective pixels, the number of horizontal effective pixels, the scanning method (progressive (p) or interlace (i)), and the vertical synchronization frequency (video data)
  • the information is also referred to as field rate.
  • the VICs are respectively assigned to each video format of two-dimensional video data.
  • the EDID data 127 d includes each VIC of video data that can be displayed using the display 126 among the VICs included in the VIC table 127 t, product information and manufacturer name of the display 126, and a video encoding method (for example, RGB, YC B C R 4: 4: 4 or YC B C R 4: 2: 2) and the audio output specifications such as audio output sampling (hereinafter, including data that the audio format) and the like.
  • a video encoding method for example, RGB, YC B C R 4: 4: 4 or YC B C R 4: 2: 2
  • the audio output specifications such as audio output sampling (hereinafter, including data that the audio format) and the like.
  • FIG. 4 is a sequence diagram showing an operation of the wireless communication system of FIG.
  • device capability acquisition processing input format acquisition processing
  • the source device 110 wirelessly transmits a device capability request (DEVICE_CAPABILITY_REQUEST) message (also referred to as a device information request message) 1 requesting information on the device capability of the sink device 120 to the sink device 120.
  • DEVICE_CAPABILITY_REQUEST device capability request
  • the sink device 120 wirelessly transmits a device capability response (DEVICE_CAPABILITY_RESPONSE) message (also referred to as a device information response message) 2 including the information on the device capability of the sink device 120 to the source device 110.
  • DEVICE_CAPABILITY_RESPONSE device capability response
  • device information response message also referred to as a device information response message
  • device connection processing is performed between the source device 110 and the sink device 120.
  • the source device 110 starts device connection processing, port reservation processing, and bandwidth reservation processing.
  • the source device 110 wirelessly transmits a wireless HD compliant connection request (CONNECT_REQUEST) message 6 to the sink device 120 to check whether to transmit AV data to the sink device 120 or not.
  • CONNECT_REQUEST wireless HD compliant connection request
  • the S bit of the connection request message 6 is set to 0, and the port area stores data representing the source port.
  • the sink device 120 wirelessly transmits, to the source device 110, a wireless HD compliant connection response (CONNECT_RESPONSE) message 7 including information on a result of the connection request from the source device 110.
  • CONNECT_RESPONSE a wireless HD compliant connection response
  • the sink device 120 stores data representing “success” in the result code area of the connection response message 7 and reserves for transmission of AV data to the sink port area. Store the data of the specified sync port.
  • the sink device 120 sets the predetermined area (total data length area, format type area, data length area, and format data area) of the connection response message 7. , Contains information on supported formats.
  • the sink device 120 stores 0 in the total data length area of the connection response message 7.
  • the sink device 120 rejects the connection request from the source device 110, the sink device 120 stores data representing “failure” with an appropriate reason in the result code area of the connection response message 7.
  • the source device 110 when the source device 110 wirelessly receives the connection response message 7 indicating “success”, the source device 110 secures a transmission band for transmitting AV content data including video data and audio data from the source device 110 to the sink device 120.
  • the source device 110 wirelessly transmits a band request command to the sink device 120 to request and reserve a band for transmitting AV data.
  • the band management unit 121b of the sink device 120 assigns a reservation period necessary for transmitting AV content data from the source device 110 to the sink device 120, and a period designation command including information of the allocated reservation period. Are wirelessly transmitted to the source device 110.
  • the source device 110 when the source device 110 normally completes the band reservation process, before transmitting the AV data to the sink device 120, at least one of the video format and audio format of the AV data is changed.
  • an output format notification message (OUTPUT_FORMAT_NOTIFY) 10 including the video format and audio format of the AV data to be transmitted is transmitted to the sink device 120.
  • the source device 110 transmits the AV data to the sink device 120.
  • the sink device 120 identifies the video format and audio format of the AV data to be transmitted based on the output format notification message 10 from the source device 110, and receives the AV data received based on the identified video format and audio format.
  • FIG. 5 is a diagram showing the format of the output format notification message 10 of FIG.
  • the output format notification message 10 includes the following areas.
  • a 16-bit operation code (Opcode) area 11 for storing the operation code of the output format notification message 10.
  • a 6-bit sink port (SinkPort) area 12 storing a sink port number reserved for transmission of AV data.
  • a 1-bit VP field 13 that stores 1 when the sink port and source port are used for video data, and stores 0 when the sink port and source port are not used for video data.
  • a 1-bit AP area 14 which stores 1 when the sink port and source port are used for audio data, and stores 0 when the sink port and source port are not used for audio data.
  • a 6-bit source port (SrcPort) area 15 for storing a source port number reserved for AV data transmission.
  • a 16-bit total data length (Total_length) area 16 for storing data representing the data length of the output format notification message 10 excluding the opcode area 101 and the total data length area 107 from the message.
  • An 8-bit format type (Format_Type) area 19 for storing data representing the type of data stored in the format data area (areas 22 to 33 in FIG. 5) following the data length area 21.
  • the format type area 19 stores data representing video format information (VIDEO_INFO).
  • An 8-bit version information (Version) area 20 storing the version number of the format data area.
  • An 8-bit data length (Length) area 21 storing the data length of the format data area.
  • An 8-bit VIC area 22 storing a VIC representing a video format of video data to be transmitted.
  • a 3-bit CS (Color Space) area 23 storing data representing the type of color format of video data to be transmitted.
  • a 3-bit CD Color Depth
  • a 2-bit PAR Physical Aspect Ratio: video aspect ratio
  • a 4-bit CM Coldorimetry: colorimetry
  • a 4-bit AFAR Active Format Aspect Ratio
  • a 4-bit CF Content Flag
  • a 2-bit QR Quantization Range
  • a 1-bit D Detailed Timing Information
  • a 4-bit ID (ID of Detailed Timing Information area 31) for storing the ID of detailed timing information when 1 is stored in the D area 30, and storing 0 when 0 is stored.
  • a 4-bit reserve area 33 reserved for future use.
  • the source device 110 sets 1 in the 3D area 32 of the output format notification message 10 and transmits it to the sink device 120.
  • the sink device 120 detects that 1 is set in the 3D area 32 of the output format notification message 10, whereby three-dimensional video data is transmitted from the source device 110 and the video data is frame-packed. Use to identify what is being transmitted.
  • the packet processing circuit 113 transmits the output format notification message 10 to the sink device 120 for each video frame.
  • the video frame data 182 and the left-eye video frame data 181 are controlled to be composited into the composite video frame data 183 using frame packing.
  • FIG. 6 is a data layout diagram based on the relationship between the horizontal synchronization signal and the vertical synchronization signal of the composite video frame data 183 generated by the source device 110 of FIG.
  • the horizontal display period Th is a period between the horizontal synchronization period of the horizontal synchronization signal and the next horizontal synchronization period
  • the vertical display period Tv is the vertical synchronization period of the vertical synchronization signal and the next vertical synchronization period.
  • Period of time The horizontal effective pixels of the left-eye video frame data 181 and the right-eye video frame data 182 are 1920 pixels each, and the vertical effective pixels are 1080 pixels each.
  • the horizontal pixel number of the composite video frame data 183 is 1920 pixels
  • the vertical pixel number is 2160 pixels.
  • the vertical synchronization frequency of the left-eye video frame data 181 and the right-eye video frame data 182 is 23.97 Hz or 24 Hz.
  • the packet processing circuit 113 combines the left-eye video frame data 181 and the right-eye video frame data 182 into composite video frame data 183.
  • the composite video frame data 183 is the right eye for 1080 lines in the second half of the vertical display period Tv.
  • Video frame data 182 is configured to be transmitted.
  • the controller 111 of the source device 110 controls the packet processing circuit 113 to divide the composite video frame data 183 into a plurality of packets according to a predetermined packet format by the wireless HD.
  • the packet processing circuit 113 transmits the composite video frame data stored in the subpacket to each H position and each V position included in the header of each subpacket for transmitting the composite video frame data 183.
  • the horizontal position data in the horizontal display period Th of the head pixel of 183 and the vertical position data in the vertical display period Tv are stored as data for identifying the video frame data for right eye 182 and the video frame data for left eye 181, respectively.
  • the composite video frame data 183 is divided into a plurality of packets in accordance with a wireless HD compliant packet format.
  • the controller 111 of the source device 110 controls the packet wireless transmitting / receiving circuit 114 so as to wirelessly transmit the generated AV data including the plurality of packets to the sink device 120 in the allocated reservation period.
  • the sink device 120 decodes the packet of the video data in the received AV data based on the data stored in the 3D area 32 in the received output format notification message 10.
  • the source device 110 divides the audio data into a plurality of audio packets in accordance with a wireless HD compliant audio packet format, and wirelessly transmits the audio data to the sink device 120 together with the plurality of packets of the composite video frame data 183. Also, in the source device 110, when the video data is two-dimensional data, the packet processing circuit 113 generates video frame data in accordance with the selected VIC video format for each video frame, and generates the generated video frame data. A plurality of packets are generated by dividing into a plurality of packets according to a wireless HD compliant packet format.
  • the output format notification message according to the prior art is 3D compared to the output format notification message 10 according to the present embodiment. It did not include area 32. Therefore, the source device 110 can not notify the sink device 120 that the video data to be transmitted is three-dimensional video data, and can not wirelessly transmit the three-dimensional video data to the sink device 120. According to this embodiment, the output format notification message 10 identifies whether the video data to be transmitted is two-dimensional video data or three-dimensional video data transmitted using frame packing. The source device 110 uses the 3D region 32 of the output format notification message 10 before transmitting the 3D content data including three-dimensional video data to the sink device 120, since the 3D region 32 stores the data to be transmitted.
  • the sink device 120 can decode the video data from the source device 110 based on the data stored in the 3D area 32 of the received output format notification message 10. Therefore, according to the present embodiment, three-dimensional video data can be transmitted from the source device 110 to the sink device 120 in the format structure notified using the output format notification message 10.
  • the source device 110 sinks the output format notification message 10 using one packet other than the packet for transmitting the video data.
  • the sink device 120 can identify the type and format structure of the video data before receiving the video data, and the video data and the data for identifying the type and format structure of the video data are identical.
  • the video data can be smoothly reproduced by the sink device 120 as compared to the case of transmission using packets.
  • the output format notification message 10 according to the present embodiment, parameters common to two-dimensional video data and three-dimensional video data are stored in the areas 23 to 31. There is no need to send an output format message to the sink device 120.
  • FIG. 7 is a block diagram showing a configuration of a wireless communication system for transmitting video data using a video data transmission method according to a second embodiment of the present invention
  • FIG. 8 is a 3D structure table 115v of FIG. And 127 v are shown.
  • FIG. 9 is a diagram showing the format of an output format notification message 10A according to the second embodiment of the present invention.
  • the present embodiment is different from the first embodiment in the following points.
  • the memory 115 stores the VIC table 115t and the 3D structure table 115v in advance.
  • the memory 127 stores the VIC table 127t and the 3D structure table 127v in advance.
  • the output format notification message 10A includes a 4-bit 3D structure region 34 and a 1-bit spare region 35 instead of the 3D region 32 and the region 33.
  • the source device 110 ⁇ / b> A stores the VIC table 115 t and the 3D structure table 115 v in the memory 115 in advance.
  • the 3D structure tables 115v and 127v are the 3D structure code stored in the 3D structure area 34 of the output format notification message 10A, the type of video data, and video of three-dimensional video data. It shows the relationship with the format structure (also referred to as video structure) of the three-dimensional video data in the case of data.
  • the format structure of video data is: left eye video frame data, right eye video frame data, left eye top field video frame data, right eye top field video frame data, left eye video frame data included in three-dimensional video data
  • the transmission order and transmission timing of each video frame data such as the bottom field video frame data for the right eye and the bottom field video frame data for the right eye are represented. That is, in the packet processing circuit 113, the information of the format structure of the video data is each parameter for combining video frame data included in one video data into at least one composite video frame data in each video frame. It is information for identification.
  • the composite video frame data has the first to Nth (N is an integer of 2 or more) having equal period lengths in the vertical display period Tv in the horizontal display period Th. Is configured to sequentially transmit N video frame data in each period of.
  • N is an integer of 2 or more
  • the first and second video frame data are left-eye video frame data L and right-eye video frame data R. is there.
  • the above parameters include the horizontal effective period Hactive, the horizontal blanking period Hblank, the vertical effective period Vactive and the vertical blanking period Vblank, the field rate (Hz), the pixel frequency (MHz) and the video frame data R and It is the number of lines Vspace having a value of 0 or more of the blanking period provided between L.
  • the composite video frame data is transmitted in the first half of the vertical display period Tv in the horizontal display period Th after the left-eye video frame data L having a predetermined number of lines Vvideo is transmitted, and then in the second half of the vertical display period Tv.
  • Right-eye video frame data R is transmitted.
  • the first to fourth video frame data is also referred to as top video frame data L_top for left eye (odd video frame data L_odd for left eye , Right-eye top video frame data R_top (also referred to as right-eye odd video frame data R_odd), and left-eye bottom video frame data L_bottom (left-eye even video frame data L_event). And right-eye bottom video frame data R_bottom (right-eye even video frame data R_even).
  • top video frame data L_top for left eye (odd video frame data L_odd for left eye in period Tv1 among periods Tv1 and Tv2 between three consecutive vertical synchronization periods of the vertical synchronization signal. )
  • top video frame data R_top for the right eye (also referred to as odd video frame data R_odd for the right eye) in the first composite video frame data, and in period Tv2, bottom video frame data L_bottom for the left eye
  • the left-eye even video frame data L_even) and the right-eye bottom video frame data R_bottom (also referred to as the right-eye even video frame data R_even) are combined with the second combined video frame data.
  • the first composite video frame data is transmitted in the first half of the vertical display period Tv1 in the first half of the vertical display period Tv1, and then left top video frame data L_top for a predetermined number of lines is transmitted. It is configured that the right-eye top video frame data R_top of the number of lines of is transmitted.
  • the second composite video frame data is transmitted in the first half of the vertical display period Tv2 in the first half of the vertical display period Tv2 and then in the second half of the vertical display period Tv2 after bottom video frame data L_bottom for a predetermined number of lines is transmitted. It is configured that the number of lines of right-eye bottom video frame data R_bottom is transmitted.
  • the composite video frame data is included in the plurality of horizontal line data L_H and the right eye video frame data R included in the left eye video frame data L in the vertical display period Tv in the horizontal display period Th.
  • the plurality of horizontal line data R_H to be transmitted are alternately transmitted.
  • the composite video frame data is transmitted in the first half of the horizontal display period Th in the vertical display period Tv after the left-eye video frame data L for a predetermined first pixel is transmitted.
  • the composite video frame data has left-eye video frame data L for the second pixel of the first pixel half in the first half of the horizontal display period Th in the vertical display period Tv.
  • right-eye video frame data R for the second pixel is configured to be transmitted in the second half of the horizontal display period Th.
  • the composite video frame data is configured to transmit two-dimensional video data L and depth Depth in the vertical display period Tv.
  • the composite video frame data is a difference between two-dimensional video data L, depth data Depth, graphics data Graphics, graphics data, and depth data in the vertical display period Tv. (Graphics-Depth) is configured to be sent.
  • an output format notification message 10A according to the present embodiment is a 3D structure region 34 and a spare region instead of the 3D region 32 and the region 33, as compared with the output notification format message 10 according to the first embodiment. Including 35.
  • the type of video data to be transmitted is either two-dimensional video data or three-dimensional video data
  • the video data to be transmitted is three-dimensional video data
  • the source device 110A Before transmitting the video data and audio data to the sink device 120A, the source device 110A refers to the 3D structure table 115v based on the type and format structure of the video data to be transmitted, and then transmits the 3D structure region 34.
  • the output format notification message 10A including the 3D structure area 34 storing the determined 3D structure code is transmitted to the sink device 120A. Furthermore, after transmitting the output format notification message 10A, the source device 110A transmits AV data to the sink device 120A.
  • the sink device 120A detects the 3D structure code stored in the 3D structure area 34 of the output format notification message 10A from the source device 110A, and refers to the 3D structure table 127v based on the detected 3D structure code. , Identify the type and format structure of video data transmitted from the source device 110A. Then, the sink device 120A decodes the received video data based on the identified type and format structure of the video data.
  • the output format notification message 10A of the video data includes the 3D structure area 34 storing the 3D structure code of the video data to be transmitted.
  • the video data is three-dimensional video data using the 3D structure area 34 of the output format notification message 10A, and the format of the video data The structure can be notified.
  • the sink device 120A can decode video data from the source device 110A based on the 3D structure code stored in the 3D structure area 34 of the received output format notification message 10A. Therefore, according to the present embodiment, three-dimensional video data can be transmitted from the source device 110A to the sink device 120A in the format structure notified using the output format notification message 10A.
  • the source device 110A uses one packet other than the packet for transmitting the video data to transmit the output format notification message 10A to the sink device 120A.
  • the sink device 120A can identify the type and format structure of the video data before receiving the video data, and the video data and the data for identifying the type and format structure of the video data are identical.
  • the video data can be smoothly reproduced by the sink device 120A as compared to the case of transmission using packets.
  • the output format notification message 10A according to the present embodiment, parameters common to the two-dimensional video data and the three-dimensional video data are stored in the areas 23 to 31. There is no need to send an output format message to the sink device 120A.
  • FIG. 10 is a block diagram showing the configuration of a wireless communication system for transmitting video data using the video data transmission method according to the third embodiment of the present invention.
  • 11 and 12 are tables showing the VIC tables 115 ta and 127 ta of FIG. 10
  • FIG. 13 is a diagram showing the format of the output format notification message 10 B according to the third embodiment of the present invention.
  • the present embodiment is different from the first embodiment in the following points. (1) In the source device 110B, the memory 115 stores the VIC table 115 ta in advance instead of the VIC table 115 t. (2) In the sink device 120B, the memory 127 stores the VIC table 127 ta in advance instead of the VIC table 127 t.
  • the output format notification message 10 B is a video of three-dimensional video data instead of the video code area 22 storing the VIC that identifies the video format of the two-dimensional video data as compared to the output format notification message 10. It includes an 8-bit video code area 22A storing a VIC that identifies the format, and includes a 5-bit spare area 36 instead of the 3D area 32 and the spare area 33.
  • the VIC tables 115t and 127t include the VIC, the number of vertical effective pixels of video data, the number of horizontal effective pixels, the scanning method, and the vertical It was configured to show the relationship with the synchronization frequency.
  • the VIC tables 115ta and 127ta include the VIC, the number of vertical effective pixels of video data, the number of horizontal effective pixels, the scanning method, and the video When the data is three-dimensional video data, it is configured to show the relationship between the format structure of the three-dimensional video data and the vertical synchronization frequency.
  • the VIC identifies the type of video data to be transmitted and the format structure of the three-dimensional video data when the type of video data is three-dimensional video data.
  • each VIC between 1 and 37 and each VIC between 128 and 136 are 2D content data (two-dimensional video data as in the VIC tables of FIGS. 3 and 4).
  • Each of the VICs between 38 and 40, which are assigned to the video format of the included content data, respectively, is assigned as follows to the video format of the 3D content data.
  • the VIC 38 has an effective horizontal pixel number of 1920 pixels, an effective vertical pixel number of 1080 pixels, a scanning method that is a progressive scan, a field rate of 23.97 Hz, and a video with a frame packing format structure Assigned to the format.
  • the VIC 39 has an effective horizontal pixel number of 1280 pixels, an effective vertical pixel number of 720 pixels, a scanning method that is a progressive scan, a field rate of 53.94 Hz, and a video with a frame packing format structure Assigned to the format.
  • VIC 40 is a video format having an effective horizontal pixel number of 1280 pixels, an effective vertical pixel number of 720 pixels, a scanning method which is a progressive scan, a field rate of 50 Hz, and a frame packing format structure It is assigned.
  • an output format notification message 10B is replaced with a video code area 22 storing a VIC that identifies a video format of two-dimensional video data as compared to the output format notification message 10 according to the first embodiment.
  • an 8 bit video code area 22A storing a VIC identifying a video format of three-dimensional video data, and includes a 5 bit spare area 36 in place of the 3D area 32 and the spare area 33.
  • the source device 110 determines the type of video data to be transmitted, the number of vertical effective pixels, the number of horizontal effective pixels, the scanning method, and the three-dimensional video data.
  • the VIC to be stored in the video code area 22A is determined by referring to the VIC table 115ta based on the format structure of the three-dimensional video data and the vertical synchronization frequency in the case of video data of
  • the output format notification message 10B including the video code area 22A storing the value is transmitted to the sink device 120B.
  • the source device 110B transmits AV data to the sink device 120B.
  • the sink device 120B detects the VIC stored in the video code area 22A of the output format notification message 10B from the source device 110B, and transmits it from the source device 110B with reference to the VIC table 127ta based on the detected VIC.
  • Type vertical effective pixel number, horizontal effective pixel number, scanning method, format structure of three-dimensional video data when the video data is three-dimensional video data, vertical synchronization frequency, Identify Then, the sink device 120B determines the type of the identified video data, the number of vertical effective pixels, the number of horizontal effective pixels, the scanning method, and the three-dimensional video data when the video data is three-dimensional video data.
  • the received video data is decoded and displayed based on the format structure of and the vertical synchronization frequency.
  • the source device 110B selects one of the VICs between 38 and 40 and stores the selected one in the video code area 22A of the output format notification message 10B.
  • the selected VIC is notified to the sink device 120B.
  • the source device 110B transmits 3D content data to the sink device 120B.
  • the sink device 120B detects that the data value of the video code area 22 of the output format notification message 10B has a value of 38 to 40, whereby the video data transmitted from the source device 110B is three-dimensional video data. And identify that the format structure of the three-dimensional video data is frame packing.
  • the video data output format notification message 10B includes the type of video data to be transmitted, the number of vertical effective pixels, and the number of horizontal effective pixels. And a video code area 22A storing a VIC that identifies the scanning method, the format structure of the three-dimensional video data when the video data is three-dimensional video data, and the vertical synchronization frequency,
  • the video data is three-dimensional video data and the format structure of the video data before the 110B transmits the video data Can be notified.
  • the sink device 120B can decode the video data from the source device 110B based on the VIC stored in the video code area 22A of the received output format notification message 10B. Therefore, according to the present embodiment, three-dimensional video data can be transmitted from the source device 110B to the sink device 120B in the format structure notified using the output format notification message 10B.
  • the source device 110B uses the one packet other than the packet for transmitting the video data to sink the output format notification message 10B to the sink device 120B.
  • the sink device 120B can identify the type and format structure of the video data before receiving the video data, and the video data and the data for identifying the type and format structure of the video data are identical.
  • the video data can be smoothly reproduced in the sink device 120B as compared to the case of transmission using packets.
  • the output format notification message 10 according to the present embodiment, parameters common to two-dimensional video data and three-dimensional video data are stored in the areas 23 to 31. There is no need to send an output format message to the sink device 120B.
  • FIG. 14 is a diagram showing the format of an output format notification message 10C according to the fourth embodiment of the present invention.
  • the output format notification message 10C according to the present embodiment is transmitted from the sink device 120A according to the second embodiment to the source device 110A.
  • the output format notification message 10C according to the present embodiment is characterized by including the following respective regions instead of the 3D structure region 34 and the spare region 35.
  • (1) 1-bit 3D area storing data for identifying presence or absence of 3D content data information, that is, type of video data to be transmitted is either two-dimensional video data or three-dimensional video data 32A.
  • the 3D area 32A stores 0 when the video data to be transmitted is two-dimensional video data, and stores 1 when the video data to be transmitted is three-dimensional video data.
  • a 4-bit 3D structure area 41 storing the 3D structure code (see FIG. 8) of the video data to be transmitted.
  • a 1-bit 3D metadata present (3D_Metadata_present) area 43 that stores 1 when there are 3D metadata areas 47-0, 47-1, ..., 47-N, and stores 0 when there is not.
  • a 4-bit 3D extension data (3D_Ext_Data) area 44 for storing data representing 3D extension data.
  • 3-bit 3D metadata type (3D_Metadata_type) field 45 storing data representing the type of 3D metadata stored in the 3D metadata areas 47-0, 47-1,.
  • 5 bit 3D metadata length (3D_Metadata_Length) area 46 storing the total data length of 3D metadata areas 47-0, 47-1, ..., 47-N.
  • N + 1 (N is 0 or a positive integer) 3D metadata areas 47-0, 47-1,..., 47- each having a size of 8 bits and storing 3D metadata respectively N (3D_Metadata_0, 3D_Metadata_1, ..., 3D_Metadata_N).
  • Reserved area 49 (8)
  • the source device 110A refers to the 3D structure table 115v to select the 3D structure code based on the type and format structure of the video data to be transmitted,
  • the selected 3D structure code is stored in the 3D structure area 41.
  • the source device 110A stores 0 or 1 in the 3D area 32A based on the type of video data to be transmitted.
  • the source device 110A selects the 3D metadata present area 43, the 3D extension data area 44, the 3D metadata type area 45, and the 3D metadata length area 46 based on the type and format structure of the video data to be transmitted. , And 47-N, and stores predetermined data values in the 3D metadata areas 47-0, 47-1,. Then, after transmitting the output format notification message 10C to the sink device 120A, the source device 110A transmits AV data to the sink device 120A.
  • the sink device 120A detects the 3D structure code stored in the 3D structure area 41 of the output format notification message 10C from the source device 110, and refers to the 3D structure table 127v based on the detected 3D structure code. It identifies the type and format structure of video data transmitted from the source device 110A. Then, the sink device 120A decodes the received video data based on the identified type and format structure of the video data.
  • the source device 110A sets the 3D area 32A to 1, and 3D structure area based on 3D metadata that is format information related to 3D content data to be transmitted.
  • 3D metadata present area 43 3D extension data area 44, 3D metadata type area 45, 3D metadata length area 46, 3D metadata areas 47-0, 47-1, ..., 47- Predetermined data is stored in N and notified to the sink device 120.
  • the 3D metadata type area 45, the 3D metadata length area 46, and the 3D metadata areas 47-0, 47-1,. N is not provided.
  • the sink device 120A detects that the video data transmitted from the source device 110A is three-dimensional video data, and outputs the output format notification. Based on each data stored in the message 10, format information on 3D content data is acquired. Also, after transmitting the output format notification message 10C to the sink device 120A, the source device 110A transmits 3D content data to the sink device 120A.
  • the source device 110A sets the 3D area 32A to 0 and notifies the sink device 120.
  • the 3D structure area 41, the 3D metadata present area 43, the 3D extension data area 44, the 3D metadata type area 45, and the 3D metadata The long area 46 and the 3D metadata areas 47-0, 47-1, ..., 47-N are not provided.
  • the sink device 120A detects that the video data transmitted from the source device 110 is two-dimensional video data. Also, after transmitting the output format notification message 10C to the sink device 120A, the source device 110A transmits 2D content data including two-dimensional video data to the sink device 120A.
  • the video data output format notification message 10C includes the 3D area 32A, the 3D structure area 41, and the 3D metadata present area 43; A 3D extension data area 44, a 3D metadata type area 43, a 3D metadata length area 46, and 3D metadata areas 47-0, 47-1, ..., 47-N are included.
  • Video data is three-dimensional video data using the area 44, the 3D metadata type area 43, the 3D metadata length area 46, and the 3D metadata areas 47-0, 47-1, ..., 47-N.
  • the format structure of the video data, and various format information of 3D content data can be notified to the sink device 120A.
  • the sink device 120A can decode the video data from the source device 110A based on each data stored in the 3D area 32A and the 3D structure area 41 of the received output format notification message 10C. Therefore, according to the present embodiment, three-dimensional video data can be transmitted from the source device 110A to the sink device 120A in the format structure notified using the output format notification message 10C.
  • the source device 110A uses the one packet other than the packet for transmitting the video data to sink the output format notification message 10C to the sink device 120A.
  • the sink device 120A can identify the type and format structure of the video data before receiving the video data, and the video data and the data for identifying the type and format structure of the video data are identical.
  • the video data can be smoothly reproduced by the sink device 120A as compared to the case of transmission using packets.
  • the output format notification message 10C according to the present embodiment, parameters common to the two-dimensional video data and the three-dimensional video data are stored in the areas 23 to 31. There is no need to send an output format message to the sink device 120A.
  • FIG. 15 is a diagram showing the format of an output format notification message 10D according to the fifth embodiment of the present invention.
  • the output format notification message 10D according to the present embodiment is transmitted from the sink device 120A according to the second embodiment to the source device 110A.
  • the output format notification message 10D according to the present embodiment differs from the output format notification message 10A according to the second embodiment in the following points.
  • a format type area 19A for storing data representing three-dimensional video format information is included instead of the format type area 19 for storing data representing video format information.
  • the regions 23 to 31, 34 and 35 instead of the regions 23 to 31, 34 and 35, the following regions are included.
  • a 4-bit 3D structure area 51 storing a 3D structure code of video data to be transmitted.
  • a 1-bit 3D metadata present area 53 that stores 1 when there is a 3D metadata area 57-0, 57-1, ..., 57-N, and stores 0 when there is not.
  • C A 4-bit 3D extension data area 54 for storing data representing 3D extension data.
  • D 3-bit 3D metadata type area 55 storing data representing the type of 3D metadata stored in 3D metadata areas 57-0, 57-1, ..., 57-N.
  • E 5 bit 3D metadata length area 56 storing the total data length of 3D metadata areas 57-0, 57-1, ..., 57-N.
  • the present embodiment is characterized in that data representing three-dimensional video format information is newly defined as data stored in the format type area 19A in comparison with the above-described embodiments.
  • the source device 110A refers to the 3D structure table 115v to select the 3D structure code based on the type and format structure of the video data to be transmitted,
  • the selected 3D structure code is stored in the 3D structure area 51.
  • the source device 110A stores 0 or 1 in the 3D area 32A based on the type of video data to be transmitted.
  • the source device 110A selects the 3D metadata present area 53, the 3D extension data area 54, the 3D metadata type area 55, and the 3D metadata length area 56 based on the type and format structure of the video data to be transmitted. And predetermined data values are stored in the 3D metadata areas 57-0, 57-1,. Then, after transmitting the output format notification message 10C to the sink device 120A, the source device 110A transmits AV data to the sink device 120A.
  • the sink device 120A detects the 3D structure code stored in the 3D structure area 51 of the output format notification message 10C from the source device 110, and refers to the 3D structure table 127v based on the detected 3D structure code. It identifies the type and format structure of video data transmitted from the source device 110A. Then, the sink device 120A decodes the received video data based on the identified type and format structure of the video data.
  • the source device 110A sets a notification message data value regarding the output format dedicated to 3D content data, for example, “0x07”, in the format type area 19A.
  • the 3D structure area 51, the 3D metadata present area 53, the 3D extension data area 54, the 3D metadata type area 55, and the 3D metadata are based on 3D metadata that is format information related to the 3D content data to be transmitted. Predetermined information is stored in the data length area 56 and the 3D metadata areas 57-0, 57-1, ..., 57-N, and notified to the sink device 120A.
  • the sink device 120A acquires format information on 3D content data to be transmitted, based on the output format notification message 10D from the source device 110A.
  • the source device 110A transmits 3D content data to the sink device 120A.
  • the source device 110A replaces the output format notification message 10D with an output format notification message compliant with the wireless HD according to the prior art (output format notification message 10 Instead of the 3D area 32 and the spare area 33, and transmits a 5-bit spare area to the sink device 120A.
  • the video data output format notification message 10D includes the 3D structure area 51, the 3D metadata present area 53, and the 3D extension data area 54. , 3D metadata type area 53, 3D metadata length area 56, and 3D metadata areas 57-0, 57-1, ..., 57-N.
  • the source device 110A transmits the video data of the 3D content data to the sink device 120A
  • the 3D area 32A of the output format notification message 10C is three-dimensional video data using the area 54, the 3D metadata type area 53, the 3D metadata length area 56, and the 3D metadata areas 57-0, 57-1, ..., 57-N.
  • the format structure of the video data, and various format information of 3D content data can be notified to the sink device 120A.
  • the sink device 120A can decode the video data from the source device 110A based on the data stored in the 3D area 32A and the 3D structure area 51 of the received output format notification message 10C. Therefore, according to the present embodiment, three-dimensional video data can be transmitted from the source device 110A to the sink device 120A in the format structure notified using the output format notification message 10C.
  • the source device 110A before transmitting the video data, uses one packet other than the packet for transmitting the video data to sink the output format notification message 10D to the sink device 120A. Send to Therefore, the sink device 120A can identify the type and format structure of the video data before receiving the video data, and the video data and the data for identifying the type and format structure of the video data are identical. The video data can be smoothly reproduced by the sink device 120A as compared to the case of transmission using packets.
  • FIG. 16 is a diagram showing the format of an output format notification message 10E according to the sixth embodiment of the present invention.
  • the output format notification message 10E according to the present embodiment is transmitted from the sink device 120A according to the second embodiment to the source device 110A.
  • the output format notification message 10E according to the present embodiment has a 2-bit field frequency selection region 61 and a 2-bit spare region instead of the spare region 33. And 62.
  • the field rate of the video data is the lower field rate of the above two field rates.
  • 1 is stored
  • 1 is stored
  • 2 is stored.
  • the source device 110A refers to the 3D structure table 115v to select the 3D structure code based on the type and format structure of the video data to be transmitted,
  • the selected 3D structure code is stored in the 3D structure area 41.
  • the source device 110A stores 0 or 1 in the 3D area 32A based on the type of video data to be transmitted.
  • the source device 110A selects the 3D metadata present area 43, the 3D extension data area 44, the 3D metadata type area 45, and the 3D metadata length area 46 based on the type and format structure of the video data to be transmitted. , And 47-N, and stores predetermined data values in the 3D metadata areas 47-0, 47-1,. Then, after transmitting the output format notification message 10C to the sink device 120A, the source device 110A transmits AV data to the sink device 120A.
  • the sink device 120A detects the 3D structure code stored in the 3D structure area 41 of the output format notification message 10C from the source device 110, and refers to the 3D structure table 127v based on the detected 3D structure code. It identifies the type and format structure of video data transmitted from the source device 110A. Then, the sink device 120A decodes the received video data based on the identified type and format structure of the video data.
  • the source device 110A sets the 3D area 32A to 1, and 3D structure area based on 3D metadata that is format information related to 3D content data to be transmitted.
  • 41, 3D metadata present area 43, 3D extension data area 44, 3D metadata type area 45, 3D metadata length area 46, 3D metadata areas 47-0, 47-1, ..., 47- Predetermined data is stored in N and notified to the sink device 120.
  • the field frequency selection area 61 stores data for selecting at least one of the two field rates. Do. For example, as shown in FIG.
  • the sink device 120A detects that the video data transmitted from the source device 110A is three-dimensional video data, and outputs the output format notification. Based on each data stored in the message 10, format information on 3D content data is acquired. Also, the sink device 120A refers to the VIC table 127t based on the values of the VIC and the field frequency selection area 61 stored in the video code area 22, and selects and acquires the field rate. Also, after transmitting the output format notification message 10C to the sink device 120A, the source device 110A transmits 3D content data to the sink device 120A.
  • the source device 110A sets the 3D area 32A to 0 and notifies the sink device 120.
  • the 3D structure area 41, the 3D metadata present area 43, the 3D extension data area 44, the 3D metadata type area 45, and the 3D metadata The long area 46 and the 3D metadata areas 47-0, 47-1, ..., 47-N are not provided.
  • the sink device 120A detects that the video data transmitted from the source device 110 is two-dimensional video data.
  • the source device 110A transmits 2D content data including two-dimensional video data to the sink device 120A.
  • the value stored in the field frequency selection area 61 does not depend on whether the video data transmitted by the source device 110 is two-dimensional video data or three-dimensional video data.
  • the video data output format notification message 10E includes the field frequency selection area 61
  • the video is compared with the fourth embodiment.
  • at least one of the two field rates can be selected to provide a unique effect.
  • FIGS. 47 and 48 are tables showing the VIC tables 115 ta and 127 ta according to the seventh embodiment of the present invention.
  • the present embodiment is different from the third embodiment only in the method of assigning the VIC.
  • each VIC between 96 and 99 is assigned to a video format of three-dimensional video data.
  • the present embodiment exhibits the same function and effect as the third embodiment.
  • the source devices 110, 110A, 110B are wirelessly connected to the sink devices 120, 120A, 120B respectively by wireless transmission lines conforming to the wireless HD, but the present invention is not limited to this. It may be connected using a wireless transmission path or a wired transmission cable conforming to a wireless communication standard other than the wireless HD.
  • the source device determines that the type of the video data to be transmitted is (a) three-dimensional video data including the first video frame data and the second video frame data, and (b) the third video frame Data representing which is two-dimensional video data including data, and an output including format information of the three-dimensional video data when the transmitted video data is three-dimensional video data
  • a format notification message 10, 10A, 10B, 10C, 10D or 10E is sent to the sink device.
  • the sink device receives the output format notification message 10, 10A, 10B, 10C, 10D or 10E from the source device, and based on the received output format notification message 10, 10A, 10B, 10C, 10D or 10E.
  • the value assigned to the 3D structure code may be a value other than the value shown in FIG. 8, and the format structure of the three-dimensional video data is as shown in FIG. Not limited to.
  • the values assigned to the three-dimensional video data format in the VIC tables 115 ta and 127 ta are not limited to the values assigned in the third and seventh embodiments.
  • VICs are assigned to video formats of three types of 3D content, but the number of video formats is not limited to three, and the number of effective pixels other than the three video formats described above It may be a video format of 3D content with field rate or structure structure.
  • the bandwidth management unit 121b is provided in the sink devices 120, 120A and 120B, but the present invention is not limited to this, and may be provided in the source devices 110, 110A and 110B or other devices. Good.
  • the source device for transmitting the video data the sink device for receiving the video data, and the communication system including the source device and the sink device according to the present invention.
  • the source device Before transmitting the video data to the sink device, the source device transmits three-dimensional video data in which the type of the transmitted video data includes (a) first video frame data and second video frame data; , (B) data identifying any one of two-dimensional video data including third video frame data, and the third order when the video data to be transmitted is three-dimensional video data
  • An output format notification message including format information of original video data is transmitted to the sink device.
  • the sink device receives an output format notification message from the source device, and the type of the video data to be transmitted and the type of the video data to be transmitted are tertiary based on the received output format notification message. Identify format information of the three-dimensional video data in the case of original video data, receive the video data from the source device, and decode the video data based on the identified type and format information Because it can transmit three-dimensional video data.
  • the present invention is particularly applicable to transmission of uncompressed AV content data in a wireless communication system conforming to a wireless communication standard such as, for example, wireless HD.
  • 110, 110A, 110B source devices, 111 ... controller, 112 ... video and audio reproduction device, 113: Packet processing circuit, 114: Packet radio transmission / reception circuit, 115: Memory, 115t, 115ta ... VIC table, 115v ... 3D structure table, 116 ... antenna, 120, 120A, 120B ... sink device, 121 ... controller, 122: Packet radio transmission / reception circuit, 123: Packet processing circuit, 124 ... audiovisual processing circuit, 125: Speaker, 126 ... display, 127 ... memory, 127d ... EDID data, 127t, 127ta ... VIC table, 127v ... 3D structure table, 181 ... left eye video frame data, 182 ... right eye video frame data, 183 ... composite video frame data.

Abstract

 ソース機器(110)は、送信するビデオデータが二次元のビデオデータと、フレームパッキングを用いて伝送される三次元のビデオデータとのうちのいずれであるかを識別するデータを格納する3D領域(32)を含むビデオデータの出力フォーマット通知メッセージ(10)を、ビデオデータを送信する前に、シンク機器(120)に送信する。これに応答して、シンク機器(120)は、ビデオデータの種別及びフォーマット構造を識別し、識別されたビデオデータの種別及びフォーマット構造に基づいて、受信されたビデオデータをデコードする。

Description

ビデオデータの伝送方法
 本発明は、ビデオデータの伝送方法、当該ビデオデータを送信するソース機器、当該ビデオデータを受信するシンク機器、並びに当該ソース機器及びシンク機器を備えた無線通信システムに関し、特に、右目用ビデオフレームデータ及び左目用ビデオフレームデータなどの第1及び第2のビデオフレームデータを含む三次元(以下、3D又は立体(stereoscopic)ともいう。)のビデオデータの伝送方法、当該ビデオデータを送信するソース機器、当該ビデオデータを受信するシンク機器、並びに当該ソース機器及びシンク機器を備えた通信システムに関する。
 音声及び映像機器(以下、AV(Audio and Visual)機器という。)間で非圧縮のベースバンド映像信号とデジタル音声信号をワイヤレス伝送するための標準規格であるワイヤレスHD(WirelessHD)が策定されている。ワイヤレスHDはデジタルビデオレコーダやセットトップボックス、パーソナルコンピュータなどのソース機器に蓄えられた高精細の動画データを、ソース機器をシンク機器にケーブル接続することなくハイビジョンテレビなどのシンク機器で視聴するための技術仕様である。また、双方向のコントロール信号も含んでいるので、テレビジョン装置とデジタルビデオレコーダを連動させるように制御することや、複数のAV機器を用いてホームシアターなどを構成してこれらのAV機器を一元的に制御することができ、これらの制御のためのプロトコルが定義されている。加えて、ワイヤレスHDは高品質のコンテンツの伝送が可能であるために、提供されるコンテンツが不正に再生されたり、違法にコピーされたりしないように、コンテンツ保護方式としてDTCP(Digital Transmission Content Protection)が定義されている。
 従来技術に係るワイヤレスHDの無線伝送方法については、例えば、特許文献1及び2並びに非特許文献1に記載されている。また、従来技術に係るAVデータの無線伝送方法については、特許文献3及び4に記載されている。
特開2008-252929号公報。 特開2009-4877号公報。 米国特許出願公開第2008/0320539号明細書。 米国特許出願公開第2008/0129879号明細書。 米国特許出願公開第2002/0030675号明細書。 特開2002-95018号公報。
WirelessHD Specification Version 1.0 Overview、2007年10月9日。
 しかしながら、従来技術に係るワイヤレスHDでは、ビデオデータが1つのフレームデータを含む二次元(2D又は平面(flat)ともいう。)のコンテンツデータ(以下、二次元データという。)であることを想定していた。このため、ビデオデータが右目用ビデオフレームデータと左目用ビデオフレームデータなどの第1及び第2のビデオフレームデータを含む三次元のコンテンツデータ(以下、三次元データという。)の場合には、当該三次元のコンテンツデータを、ソース機器から3Dテレビジョン装置等のシンク機器に無線送信できなかった。
 また、特許文献5及び6は上記三次元データの伝送方法を開示しているが、ワイヤレスHDにおいて三次元データを無線伝送するための具体的な方法な構成を開示してはいなかった。
 本発明の目的は以上の問題点を解決し、右目用ビデオフレームデータと左目用ビデオフレームデータなどの第1及び第2のビデオフレームデータを含む三次元のビデオデータを伝送できるビデオデータの伝送方法、当該ビデオデータを送信するソース機器、当該ビデオデータを受信するシンク機器、並びに当該ソース機器及びシンク機器を備えた通信システムを提供することにある。
 第1の発明に係るソース機器は、ソース機器からシンク機器にビデオデータを伝送する通信システムのためのソース機器において、
 上記ビデオデータを上記シンク機器に送信する前に、上記送信されるビデオデータの種別が(a)第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元のビデオデータと、(b)第3のビデオフレームデータを含む二次元のビデオデータとのうちのいずれであるかを表すデータ、及び、上記送信されるビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を含む出力フォーマット通知メッセージを、上記シンク機器に送信する第1の制御手段を備えたことを特徴とする。
 上記ソース機器において、上記ソース機器は、上記ビデオデータが三次元のビデオデータであるときに、ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを上記シンク機器に送信する送信手段を備え、
 上記フォーマット情報は、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成するためのパラメータを識別するためのフォーマット構造の情報を含むことを特徴とする。
 また、上記ソース機器において、上記出力フォーマット通知メッセージは、上記送信されるビデオデータが上記二次元のビデオデータと、所定のフォーマット構造を用いて送信される三次元のビデオデータとのうちのいずれであるかを表すデータを格納する3D領域を含むことを特徴とする請求項2記載のソース機器。
 さらに、上記ソース機器において、上記出力フォーマット通知メッセージは、上記送信するビデオデータの種別が上記二次元のビデオデータ及び上記三次元のビデオデータのうちのいずれであるか、及び、上記送信されるビデオデータが三次元のビデオデータである場合に当該三次元のビデオデータが所定の複数のフォーマット構造のうちのどのフォーマット構造を用いて送信されるかを識別するための3Dストラクチャコードを格納する3Dストラクチャ領域を含むことを特徴とする請求項2記載のソース機器。
 またさらに、上記ソース機器において、上記出力フォーマット通知メッセージは、上記送信されるビデオデータの種別と、上記ビデオデータの種別が三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット構造を識別するビデオフォーマット情報識別子を格納するビデオコード領域を含むことを特徴とする請求項2記載のソース機器。
 また、上記ソース機器において、上記出力フォーマット通知メッセージは、
(a)上記送信されるビデオデータの種別が二次元のビデオデータ及び三次元のビデオデータのうちのいずれであるかを識別するデータを格納する3D領域と、
(b)上記送信されるビデオデータの種別が三次元のビデオデータである場合に当該三次元のビデオデータが所定の複数のフォーマット構造のうちのどのフォーマット構造を用いて送信されるかを識別するための3Dストラクチャコードを格納する3Dストラクチャ領域と、
(c)上記送信されるビデオデータの種別が三次元のビデオデータである場合に当該三次元のビデオデータの3Dメタデータを格納する3Dメタデータ領域とを含むことを特徴とする請求項2記載のソース機器。
 さらに、上記ソース機器において、上記フォーマット情報は、上記送信されるビデオデータのフィールドレートと、垂直有効画素数と、水平有効画素数と、垂直同期周波数とをさらに含むことを特徴とする請求項2から6までのうちのいずれか1つの請求項記載のソース機器。
 またさらに、上記ソース機器において、上記出力フォーマット通知メッセージは、上記二次元のビデオデータ及び上記三次元のビデオデータに共通のパラメータを含むことを特徴とする請求項1から7までのうちのいずれか1つの請求項記載のソース機器。
 第2の発明に係るシンク機器は、ソース機器からシンク機器にビデオデータを伝送する通信システムのためのシンク機器において、
 上記ソース機器によって送信されるビデオデータの種別が(a)第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元のビデオデータと、(b)第3のビデオフレームデータを含む二次元のビデオデータとのうちのいずれであるかを識別するデータ、及び、上記送信されるビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を含む出力フォーマット通知メッセージを上記ソース機器から受信し、上記受信された出力フォーマット通知メッセージに基づいて、上記送信されるビデオデータの種別、及び上記送信されるビデオデータの種別が三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を識別する第2の制御手段と、
 上記ソース機器から上記ビデオデータを受信し、上記ビデオデータを、上記識別された種別及びフォーマット情報に基づいてデコードする受信手段とを備えたことを特徴とするシンク機器。
 第3の発明に係る通信システムは、ソース機器からシンク機器にビデオデータを伝送する通信システムにおいて、上記ソース機器と、上記シンク機器とを備えたことを特徴とする。
 第4の発明に係るビデオデータの伝送方法は、ソース機器からシンク機器にビデオデータを伝送する通信システムのためのビデオデータの伝送方法において、
 上記ソース機器により、上記ビデオデータを上記シンク機器に送信する前に、上記送信されるビデオデータの種別が(a)第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元のビデオデータと、(b)第3のビデオフレームデータを含む二次元のビデオデータとのうちのいずれであるかを識別するデータ、及び、上記送信されるビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を含む出力フォーマット通知メッセージを、上記シンク機器に送信するステップと、
 上記シンク機器により、出力フォーマット通知メッセージを上記ソース機器から受信し、上記受信された出力フォーマット通知メッセージに基づいて、上記送信されるビデオデータの種別、及び上記送信されるビデオデータの種別が三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を識別するステップと、
 上記シンク機器により、上記ソース機器から上記ビデオデータを受信し、上記ビデオデータを、上記識別された種別及びフォーマット情報に基づいてデコードするステップとを含むことを特徴とする。
 本発明に係るビデオデータの伝送方法、当該ビデオデータを送信するソース機器、当該ビデオデータを受信するシンク機器、並びに当該ソース機器及びシンク機器を備えた通信システムによれば、ソース機器は、ビデオデータをシンク機器に送信する前に、上記送信されるビデオデータの種別が(a)第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元のビデオデータと、(b)第3のビデオフレームデータを含む二次元のビデオデータとのうちのいずれであるかを識別するデータ、及び、上記送信されるビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を含む出力フォーマット通知メッセージを、上記シンク機器に送信する。また、シンク機器は、出力フォーマット通知メッセージを上記ソース機器から受信し、上記受信された出力フォーマット通知メッセージに基づいて、上記送信されるビデオデータの種別、及び上記送信されるビデオデータの種別が三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を識別し、上記ソース機器から上記ビデオデータを受信し、上記ビデオデータを、上記識別された種別及びフォーマット情報に基づいてデコードするので、三次元のビデオデータを伝送できる。
本発明の第1の実施形態に係るビデオデータの伝送方法を用いてビデオデータを伝送する無線通信システムの構成を示すブロック図である。 図1のVIC(Video format Identification Code)テーブル115t及び127tの第1の部分を示す表である。 図1のVICテーブル115t及び127tの第2の部分を示す表である。 図1の無線通信システムの動作を示すシーケンス図である。 図4の出力フォーマット通知メッセージ10のフォーマットを示す図である。 図1のソース機器110によって生成される合成ビデオフレームデータ183の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。 本発明の第2の実施形態に係るビデオデータの伝送方法を用いてビデオデータを伝送する無線通信システムの構成を示すブロック図である。 図7の3Dストラクチャテーブル115v及び127vを示す表である。 本発明の第2の実施形態に係る出力フォーマット通知メッセージ10Aのフォーマットを示す図である。 本発明の第3の実施形態に係るビデオデータの伝送方法を用いてビデオデータを伝送する無線通信システムの構成を示すブロック図である。 図10のVICテーブル115ta及び127taの第1の部分を示す表である。 図10のVICテーブル115ta及び127taの第2の部分を示す表である。 本発明の第3の実施形態に係る出力フォーマット通知メッセージ10Bのフォーマットを示す図である。 本発明の第4の実施形態に係る出力フォーマット通知メッセージ10Cのフォーマットを示す図である。 本発明の第5の実施形態に係る出力フォーマット通知メッセージ10Dのフォーマットを示す図である。 本発明の第6の実施形態に係る出力フォーマット通知メッセージ10Eのフォーマットを示す図である。 本発明の第7の実施形態に係るVICテーブル115ta及び127taの第1の部分を示す表である。 本発明の第7の実施形態に係るVICテーブル115ta及び127taの第2の部分を示す表である。
 以下、本発明に係る実施形態について図面を参照して説明する。なお、以下の各実施形態において、同様の構成要素については同一の符号を付している。
第1の実施形態.
 図1は、本発明の第1の実施形態に係るビデオデータの伝送方法を用いてビデオデータを伝送する無線通信システムの構成を示すブロック図であり、図2及び図3は、図1のVICテーブル115t及び127tを示す表である。
 詳細後述するように、本実施形態に係るソース機器110は、ビデオデータをシンク機器120に送信する前に、上記送信されるビデオデータの種別が(a)左目用ビデオフレームデータ181と右目用ビデオフレームデータ183とを含む三次元のビデオデータと、(b)1つのビデオフレームデータを含む二次元のビデオデータとのうちのいずれであるかを表すデータ、及び、上記送信されるビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を含む出力フォーマット通知メッセージ10を、上記シンク機器に送信するコントローラ111を備えたことを特徴としている。さらに、ソース機器110は、送信するビデオデータが三次元のビデオデータであるときに、ビデオフレーム毎に、左目用ビデオフレームデータ181と右目用ビデオフレームデータ182とを合成ビデオフレームデータ183に合成するパケット処理回路113と、合成ビデオフレームデータ183をシンク機器120に送信するパケット無線送受信回路114とを備えたことを特徴としている。なお、ソース機器110において、パケット無線送受信回路114と、パケット処理回路113とは、送信回路を構成する。
 また、シンク機器120は、出力フォーマット通知メッセージ10をソース機器110から受信し、上記受信された出力フォーマット通知メッセージ10に基づいて、送信されるビデオデータの種別、及び上記送信されるビデオデータの種別が三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を識別するコントローラ121と、ソース機器110からビデオデータを受信するパケット無線送受信回路122と、ビデオデータを上記識別された種別及びフォーマット情報に基づいてデコードするパケット処理回路123とを備えたことを特徴としている。なお、シンク機器120において、パケット無線送受信回路122と、パケット処理回路123とは、受信回路を構成する。
 図1において、本実施形態に係る無線通信システムは、ワイヤレスHDに準拠している。AVコンテンツデータのソース機器として機能するソース機器110は、映像音声再生装置112と、パケット処理回路113と、アンテナ116を備えたパケット無線送受信回路114と、VICテーブル115tをあらかじめ格納するメモリ115と、これらの装置及び回路112~115の動作を制御するコントローラ111とを備えて構成される。映像音声再生装置112は、例えばDVDプレーヤであって、外部の記憶装置又はMD、DVDなどの記録媒体からビデオデータ及びオーディオデータを再生してパケット処理回路113に出力する。パケット処理回路113は、入力されるビデオデータ及びオーディオデータを、ビデオフレーム毎に所定のパケットの形式のデジタル信号に変換してパケット無線送受信回路114に出力する。さらに、パケット処理回路113は、コントローラ111からの制御メッセージ(例えば、詳細後述する出力フォーマット通知メッセージ10である。)を所定のパケットの形式のデジタル信号に変換してパケット無線送受信回路114に出力する。パケット無線送受信回路114は入力されるデジタル信号に従って搬送波信号をデジタル変調し、変調後の無線信号を、アンテナ116を介してシンク機器120のパケット無線送受信回路122に無線送信する。一方、シンク機器120から無線送信される無線信号はアンテナ116を介してパケット無線送受信回路114によって受信され、パケット無線送受信回路114は受信された無線信号をベースバンド信号に復調した後、パケット処理回路113に出力する。パケット処理回路113は、入力されるベースバンド信号から所定のパケット分離処理により所定の制御コマンドのみを取り出した後にコントローラ111に出力する。
 また、シンク機器120は、アンテナ128を備えたパケット無線送受信回路122と、パケット処理回路123と、映像音声処理回路124と、スピーカ125と、二次元のビデオデータ及び三次元のビデオデータを表示するディスプレイ126と、EDID(Extended Display Identification Data)データ127d及びVICテーブル127tをあらかじめ格納するメモリ127と、これらの回路等122~124,127の動作を制御するコントローラ121とを備えて構成される。また、コントローラ121は、無線ネットワークの使用帯域及び信号送出のタイミング制御を管理する帯域管理部121bを備えて構成される。パケット無線送受信回路122は、アンテナ128を介して受信された無線信号をベースバンド信号に復調した後、パケット処理回路123に出力する。パケット処理回路123は、入力されるデジタル信号から所定のパケット分離処理によりビデオデータ、オーディオデータ及び所定の制御コマンドのみを取り出すことにより受信されたパケットをデコードし、ビデオデータ及びオーディオデータを映像音声処理回路124に出力する一方、制御コマンドをコントローラ121に出力する。映像音声処理回路124は入力されるオーディオデータを所定の信号処理やD/A変換処理を実行した後、スピーカ125に出力して音声の出力を行う一方、入力されるビデオデータを所定の信号処理やD/A変換処理を実行した後、ディスプレイ126に出力して表示する。
 図2及び図3において、VICテーブル115t及び127tはそれぞれ、ビデオデータの複数のビデオフォーマットを識別するためのVIC(ビデオフォーマット情報識別子)を含む。ここで、ビデオフォーマットはシンク機器120におけるビデオデータの出力仕様を表し、ビデオデータの垂直有効画素数、水平有効画素数、走査方法(プログレッシブ(p)又はインターレース(i))、及び垂直同期周波数(以下、フィールドレートともいう。)の各情報を含む。本実施形態において、VICは二次元のビデオデータの各ビデオフォーマットにそれぞれ割り当てられている。また、EDIDデータ127dは、VICテーブル127tに含まれるVICのうちディスプレイ126を用いて表示可能なビデオデータの各VIC、ディスプレイ126の製品情報及び製造者名、映像符号化方式(例えば、RGB、YC4:4:4又はYC4:2:2)及び音声出力サンプリング等の音声出力仕様(以下、オーディオフォーマットという。)等のデータを含む。
 図4は、図1の無線通信システムの動作を示すシーケンス図である。まず始めに、ソース機器110とシンク機器120との間で、シンク機器120がサポートするビデオフォーマットの情報及びオーディオフォーマットの情報をソース機器110が取得するためのデバイス能力取得処理(入力フォーマット取得処理)が実行される。デバイス能力取得処理において、ソース機器110は、シンク機器120のデバイス能力の情報を要求するデバイス能力要求(DEVICE_CAPABILITY_REQUEST)メッセージ(デバイス情報要求メッセージともいう。)1をシンク機器120に無線送信する。これに応答して、シンク機器120は、シンク機器120のデバイス能力の情報を含むデバイス能力応答(DEVICE_CAPABILITY_RESPONSE)メッセージ(デバイス情報応答メッセージともいう。)2をソース機器110に無線送信する。
 次に、図4において、ソース機器110とシンク機器120との間で、機器接続処理が行われる。本実施形態では、ソース機器110が機器接続処理、ポート予約処理及び帯域予約処理を起動(イニシエート)する。機器接続処理において、始めに、ソース機器110はワイヤレスHDに準拠した接続要求(CONNECT_REQUEST)メッセージ6をシンク機器120に無線送信することにより、AVデータをシンク機器120に送信するか否かを確認する。このとき、接続要求メッセージ6のSビットは0にセットされ、ポート領域はソースポートを表すデータを格納する。シンク機器120は、接続要求メッセージ6を受信すると、ソース機器110からの接続要求に対する結果の情報を含むワイヤレスHDに準拠した接続応答(CONNECT_RESPONSE)メッセージ7をソース機器110に無線送信する。ここで、シンク機器120は、ソース機器110からの接続要求を受け入れるときは、接続応答メッセージ7の結果コード領域に「成功」を表すデータを格納し、シンクポート領域にAVデータ伝送のために予約されたシンクポートのデータを格納する。接続要求メッセージ6のRFビットに1がセットされている場合には、シンク機器120は、接続応答メッセージ7の所定の領域(総データ長領域、フォーマット種別領域、データ長領域及びフォーマットデータ領域)に、サポートされるフォーマットの情報を格納する。接続要求メッセージ6のRFビットに0がセットされている場合には、シンク機器120は、接続応答メッセージ7の総データ長領域に0を格納する。シンク機器120は、ソース機器110からの接続要求を拒否するときは、接続応答メッセージ7の結果コード領域に適切な理由を有する「失敗」を表すデータを格納する。
 図4において、ソース機器110は、「成功」を示す接続応答メッセージ7を無線受信すると、ソース機器110からシンク機器120にビデオデータ及びオーディオデータを含むAVコンテンツデータを伝送するための伝送帯域を確保するためのワイヤレスHDに準拠した帯域(リソース)予約処理を行う。帯域予約処理において、ソース機器110は、AVデータを送信するための帯域を要求して予約するために帯域要求コマンドをシンク機器120に無線送信する。これに応答して、シンク機器120の帯域管理部121bは、ソース機器110からシンク機器120にAVコンテンツデータを送信するために必要な予約期間を割り当て、割り当てた予約期間の情報を含む期間指定コマンドをソース機器110に無線送信する。
 さらに、図4において、ソース機器110は帯域予約処理を正常に終了すると、AVデータをシンク機器120に送信する前に、及び、AVデータのビデオフォーマット及びオーディオフォーマットのうちの少なくとも一方が変更されたときに、送信するAVデータのビデオフォーマット及びオーディオフォーマットを含む出力フォーマット通知メッセージ(OUTPUT_FORMAT_NOTIFY)10を、シンク機器120に送信する。そして、ソース機器110は、AVデータをシンク機器120に送信する。シンク機器120は、ソース機器110からの出力フォーマット通知メッセージ10に基づいて、送信されるAVデータのビデオフォーマット及びオーディオフォーマットを識別し、識別されたビデオフォーマット及びオーディオフォーマットに基づいて、受信したAVデータをデコードする。
 図5は、図4の出力フォーマット通知メッセージ10のフォーマットを示す図である。図5において、出力フォーマット通知メッセージ10は以下の各領域を含む。
(1)出力フォーマット通知メッセージ10のオペレーションコードを格納する16ビットのオペコード(Opcode)領域11。
(2)AVデータの伝送のために予約されたシンクポート番号を格納する6ビットのシンクポート(SinkPort)領域12。
(3)シンクポート及びソースポートがビデオデータのために用いられるときには1を格納し、シンクポート及びソースポートがビデオデータのために用いられないときには0を格納する1ビットのVP領域13。
(4)シンクポート及びソースポートがオーディオデータのために用いられるときには1を格納し、シンクポート及びソースポートがオーディオデータのために用いられないときには0を格納する1ビットのAP領域14。
(5)AVデータの伝送のために予約されたソースポート番号を格納する6ビットのソースポート(SrcPort)領域15。
(6)出力フォーマット通知メッセージ10からオペコード領域101と総データ長領域107を除いた領域のデータ長を表すデータを格納する16ビットの総データ長(Total_length)領域16。
(7)将来の利用ために予約された2ビットのR(Reserved)領域17及び16ビットの予備領域18。
(8)データ長領域21に続くフォーマットデータ領域(図5では、領域22~33である。)に格納されるデータのタイプを表すデータを格納する8ビットのフォーマット種別(Format_Type)領域19。本実施形態及び以下の各実施形態において、フォーマット種別領域19は、ビデオフォーマット情報(VIDEO_INFO)を表すデータを格納する。
(9)上記フォーマットデータ領域のバージョン番号を格納する8ビットのバージョン情報(Version)領域20。
(10)上記フォーマットデータ領域のデータ長を格納する8ビットのデータ長(Length)領域21。
(11)送信されるビデオデータのビデオフォーマットを表すVICを格納する8ビットのVIC領域22。
(12)送信されるビデオデータのカラーフォーマットのタイプを表すデータを格納する3ビットのCS(Color Space:色空間)領域23。
(13)送信されるビデオデータの色深度のビット数を格納する3ビットのCD(Color Depth:色深度)領域24。
(14)送信される映像のアスペクト比を表すデータを格納する2ビットのPAR(Picture Aspect Ratio:ビデオアスペクト比)領域25。
(15)送信されるビデオデータのカラリメトリ情報を格納する4ビットのCM(Colorimetry:カラリメトリ)領域26。
(16)送信されるビデオデータの有効画素のアスペクト比を表すデータを格納する4ビットのAFAR(Active Format Aspect Ratio)領域27。
(17)サポートされるコンテンツのタイプを表すデータを格納する4ビットのCF(Content Flag)領域28。
(18)送信されるビデオデータの量子化ビット範囲を表すデータを格納する2ビットのQR(Quantization Range)領域29。
(19)送信されるビデオデータのタイミング情報として詳細タイミング情報が用いられるときは1を格納する一方、用いられないときは0を格納する1ビットのD(Detailed Timing Information)領域30。
(20)D領域30に1が格納されているときには詳細タイミング情報のIDを格納する一方、0が格納されているときには0を格納する4ビットのID(ID of Detailed Timing Information領域31。
(21)送信されるビデオデータの種別が二次元のビデオデータと、フレームパッキング(フレームシーケンシャルともいう。)を用いて伝送される三次元のビデオデータとのうちのいずれであるかを識別するデータを格納する1ビットの3D領域32。具体的には、3D領域32は、送信されるビデオデータが二次元のビデオデータであるときには0を格納する一方、送信されるビデオデータがフレームパッキングを用いて伝送される三次元のビデオデータであるときには1を格納する。
(22)将来の利用ために予約された4ビットのリザーブ領域33。
 次に、ソース機器110が左目用ビデオフレームデータ181と右目用ビデオフレームデータ182とを含む三次元のビデオデータをシンク機器120に送信するときの、ソース機器110及びシンク機器120の動作を説明する。まず始めに、ソース機器110は、出力フォーマット通知メッセージ10の3D領域32に1をセットして、シンク機器120に送信する。シンク機器120は、出力フォーマット通知メッセージ10の3D領域32に1がセットされていることを検出することにより、ソース機器110から三次元のビデオデータが送信されること及び当該ビデオデータがフレームパッキングを用いて伝送されることを識別する。
 次に、ソース機器110のコントローラ111は、1にセットされた3D領域32を含む出力フォーマット通知メッセージ10をシンク機器120に送信した後に、パケット処理回路113に対して、ビデオフレーム毎に、右目用ビデオフレームデータ182と左目用ビデオフレームデータ181とを、フレームパッキングを用いて合成ビデオフレームデータ183に合成するように制御する。
 図6は、図1のソース機器110によって生成される合成ビデオフレームデータ183の水平同期信号と垂直同期信号との関係に基づいたデータ配置図である。図6において、水平表示期間Thは水平同期信号の水平同期期間と次の水平同期期間との間の期間であり、垂直表示期間Tvは垂直同期信号の垂直同期期間と次の垂直同期期間との間の期間である。左目用ビデオフレームデータ181と右目用ビデオフレームデータ182の水平有効画素数はそれぞれ1920ピクセルであり、垂直有効画素数はそれぞれ1080ピクセルである。また、合成ビデオフレームデータ183の水平画素数は1920ピクセルであり、垂直画素数は2160ピクセルである。さらに、左目用ビデオフレームデータ181と右目用ビデオフレームデータ182の垂直同期周波数は23.97Hz又は24Hzである。パケット処理回路113は、左目用ビデオフレームデータ181と右目用ビデオフレームデータ182とを合成ビデオフレームデータ183に合成する。このとき、合成ビデオフレームデータ183は水平表示期間Thにおいて、垂直表示期間Tvの前半で1080ライン分の左目用ビデオフレームデータ181が送信された後、垂直表示期間Tvの後半で1080ライン分の右目用ビデオフレームデータ182が送信されるように構成される。
 次に、ソース機器110のコントローラ111は、パケット処理回路113に対して、合成ビデオフレームデータ183をワイヤレスHDによって所定のパケットフォーマットに従って複数のパケットに分割するように制御する。これに応答して、パケット処理回路113は、合成ビデオフレームデータ183を送信するための各サブパケットのヘッダに含まれる各Hポジション及び各Vポジションに、当該サブパケットに格納された合成ビデオフレームデータ183の先頭ピクセルの水平表示期間Th内の水平位置データ及び垂直表示期間Tv内の垂直位置データを、右目用ビデオフレームデータ182と左目用ビデオフレームデータ181とを識別するためのデータとしてそれぞれ格納するように、合成ビデオフレームデータ183をワイヤレスHDに準拠したパケットフォーマットに従って複数のパケットに分割する。そして、ソース機器110のコントローラ111は、生成された複数のパケット含むAVデータを、割り当てられた予約期間においてシンク機器120に無線送信するようにパケット無線送受信回路114を制御する。シンク機器120は、受信した出力フォーマット通知メッセージ10内の3D領域32に格納されたデータに基づいて、受信されたAVデータ内のビデオデータのパケットをデコードする。
 なお、ソース機器110は、オーディオデータを、ワイヤレスHDに準拠したオーディオのパケットフォーマットに従って複数のオーディオパケットに分割し、合成ビデオフレームデータ183の複数のパケットとともにシンク機器120に無線送信する。また、ソース機器110において、パケット処理回路113は、ビデオデータが二次元データであるときには、ビデオフレーム毎に、選択されたVICのビデオフォーマットに従ってビデオフレームデータを生成し、生成されたビデオフレームデータをワイヤレスHDに準拠したパケットフォーマットに従って複数のパケットに分割して複数のパケットを生成する。
 従来技術に係るワイヤレスHDは二次元のビデオデータを無線送信することを想定していたので、従来技術に係る出力フォーマット通知メッセージは、本実施形態に係る出力フォーマット通知メッセージ10に比較して、3D領域32を含んでいなかった。従って、ソース機器110は、送信するビデオデータが三次元のビデオデータであることをシンク機器120に通知できず、三次元のビデオデータをシンク機器120に無線送信できなかった。本実施形態によれば、出力フォーマット通知メッセージ10は、送信されるビデオデータが二次元のビデオデータと、フレームパッキングを用いて伝送される三次元のビデオデータとのうちのいずれであるかを識別するデータを格納する3D領域32を含むので、ソース機器110は、三次元のビデオデータを含む3Dコンテンツデータをシンク機器120に送信する前に、出力フォーマット通知メッセージ10の3D領域32を用いて、ビデオデータが三次元のビデオデータであること及び当該ビデオデータのフォーマット構造を通知することができる。また、シンク機器120は、受信された出力フォーマット通知メッセージ10の3D領域32に格納されたデータに基づいて、ソース機器110からのビデオデータをデコードできる。従って、本実施形態によれば、三次元のビデオデータをソース機器110からシンク機器120に、出力フォーマット通知メッセージ10を用いて通知されたフォーマット構造で送信できる。
 また、本実施形態によれば、ソース機器110は、ビデオデータを送信する前に、ビデオデータを送信するためのパケットとは別の1つのパケットを用いて、出力フォーマット通知メッセージ10をシンク機器120に送信する。従って、シンク機器120は、ビデオデータを受信する前に、当該ビデオデータの種別及びフォーマット構造を識別でき、ビデオデータと当該ビデオデータの種別及びフォーマット構造を識別を識別するためのデータとを同一のパケットを用いて送信する場合に比較して、シンク機器120においてビデオデータをスムーズに再生できる。さらに、本実施形態に係る出力フォーマット通知メッセージ10によれば、二次元のビデオデータ及び三次元のビデオデータに共通のパラメータを、領域23~31に格納したので、ビデオデータの種別毎に別の出力フォーマットメッセージをシンク機器120に送信する必要がない。
第2の実施形態.
 図7は、本発明の第2の実施形態に係るビデオデータの伝送方法を用いてビデオデータを伝送する無線通信システムの構成を示すブロック図であり、図8は、図7の3Dストラクチャテーブル115v及び127vを示す表である。また、図9は、本発明の第2の実施形態に係る出力フォーマット通知メッセージ10Aのフォーマットを示す図である。本実施形態は、第1の実施形態に比較して以下の点が異なる。
(1)ソース機器110Aにおいて、メモリ115は、VICテーブル115t及び3Dストラクチャテーブル115vを予め格納すること。
(2)シンク機器120Aにおいて、メモリ127は、VICテーブル127t及び3Dストラクチャテーブル127vを予め格納すること。
(3)出力フォーマット通知メッセージ10Aは、出力フォーマット通知メッセージ10に比較して、3D領域32及び領域33に代えて、4ビットの3Dストラクチャ領域34及び1ビットの予備領域35を含むこと。
 図7において、ソース機器110Aは、VICテーブル115t及び3Dストラクチャテーブル115vをメモリ115に予め格納している。ここで、図8に示すように、3Dストラクチャテーブル115v及び127vは、出力フォーマット通知メッセージ10Aの3Dストラクチャ領域34に格納される3Dストラクチャコードと、ビデオデータの種別と、ビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット構造(ビデオストラクチャともいう。)との関係を示す。詳細後述するように、ビデオデータのフォーマット構造は、三次元のビデオデータに含まれる左目用ビデオフレームデータ、右目用ビデオフレームデータ、左目用トップフィールドビデオフレームデータ、右目用トップフィールドビデオフレームデータ、左目用ボトムフィールドビデオフレームデータ及び右目用ボトムフィールドビデオフレームデータ等の各ビデオフレームデータの伝送順序及び伝送タイミングの各定義を表す。すなわち、ビデオデータのフォーマット構造の情報は、パケット処理回路113において、ビデオフレーム毎に、1つのビデオデータに含まれる複数のビデオフレームデータを少なくとも1つの合成ビデオフレームデータに合成するための各パラメータを識別するための情報である。
 図8において、フォーマット構造がフレームパッキングの場合、合成ビデオフレームデータは、水平表示期間Thにおいて、垂直表示期間Tv内の互いに等しい期間長を有する第1~第N(Nは2以上の整数である。)の各期間でN個のビデオフレームデータが順次送信されるように構成される。ここで、例えば、三次元のビデオデータに含まれるビデオフレームデータの個数Nが2であるときは、第1及び第2のビデオフレームデータは左目用ビデオフレームデータL及び右目用ビデオフレームデータRである。このとき、上記パラメータは、水平有効期間Hactive、水平ブランキング期間Hblank、垂直有効期間Vactive及び垂直ブランキング期間Vblankの各ピクセル数、フィールドレート(Hz)、ピクセル周波数(MHz)並びにビデオフレームデータR及びLの間に設けられるブランキング期間の0以上の値を有するライン数Vspaceである。また、合成ビデオフレームデータは水平表示期間Thにおいて、垂直表示期間Tvの前半で所定のライン数Vvideoの左目用ビデオフレームデータLが送信された後、垂直表示期間Tvの後半で上記所定のラインVvideoの右目用ビデオフレームデータRが送信されるように構成される。また、三次元のビデオデータに含まれるビデオフレームデータの個数Nが4であるときは、第1~第4のビデオフレームデータは左目用トップビデオフレームデータL_top(左目用奇数ビデオフレームデータL_oddともいう。)、右目用トップビデオフレームデータR_top(右目用奇数ビデオフレームデータR_oddともいう。)、左目用ボトムビデオフレームデータL_bottom(左目用偶数ビデオフレームデータL_event)もいう。)及び右目用ボトムビデオフレームデータR_bottom(右目用偶数ビデオフレームデータR_evenである。なお、
 また、フォーマット構造がフレームパッキングの場合、垂直同期信号の連続する3つの垂直同期期間間の各期間Tv1及びTv2のうち、期間Tv1において、左目用トップビデオフレームデータL_top(左目用奇数ビデオフレームデータL_oddともいう。)と、右目用トップビデオフレームデータR_top(右目用奇数ビデオフレームデータR_oddともいう。)とを第1の合成ビデオフレームデータに合成し、期間Tv2において、左目用ボトムビデオフレームデータL_bottom(左目用偶数ビデオフレームデータL_evenともいう。)と、右目用ボトムビデオフレームデータR_bottom(右目用偶数ビデオフレームデータR_evenともいう。)とを第2の合成ビデオフレームデータに合成する。このとき、第1の合成ビデオフレームデータは水平表示期間Thにおいて、垂直表示期間Tv1の前半で所定のライン数の左目用トップビデオフレームデータL_topが送信された後、垂直表示期間Tv2の後半で所定のライン数の右目用トップビデオフレームデータR_topが送信されるように構成される。また、第2の合成ビデオフレームデータは水平表示期間Thにおいて、垂直表示期間Tv2の前半で所定のライン数の左目用ボトムビデオフレームデータL_bottomが送信された後、垂直表示期間Tv2の後半で所定のライン数の右目用ボトムビデオフレームデータR_bottomが送信されるように構成される。
 さらに、フォーマット構造がラインオルタナティブの場合、合成ビデオフレームデータは水平表示期間Thにおいて、垂直表示期間Tvで左目用ビデオフレームデータLに含まれる複数の水平ラインデータL_Hと右目用ビデオフレームデータRに含まれる複数の水平ラインデータR_Hとが交互に送信されるように構成される。
 またさらに、フォーマット構造がサイドバイサイド(フル)の場合、合成ビデオフレームデータは垂直表示期間Tvにおいて、水平表示期間Thの前半で所定の第1のピクセル分の左目用ビデオフレームデータLが送信された後、水平表示期間Thの後半で所定の第1のピクセル分の右目用ビデオフレームデータRが送信されるように構成される。また、フォーマット構造がサイドバイサイド(ハーフ)の場合、合成ビデオフレームデータは垂直表示期間Tvにおいて、水平表示期間Thの前半で第1のピクセルの半分の第2のピクセル分の左目用ビデオフレームデータLが送信された後、水平表示期間Thの後半で第2のピクセル分の右目用ビデオフレームデータRが送信されるように構成される。
 また、フォーマット構造がL+Depthの場合、合成ビデオフレームデータは垂直表示期間Tvにおいて、二次元ビデオデータLと奥行きDepthとが送信されるように構成される。そして、フォーマット構造がL+Depth+Graphics+(Graphics-Depth)の場合、合成ビデオフレームデータは垂直表示期間Tvにおいて、二次元ビデオデータLと、奥行きデータDepthとグラフィックスデータGraphicsと、グラフィックスデータと奥行きデータの差分(Graphics-Depth)とが送信されるように構成される。
 図9において、本実施形態に係る出力フォーマット通知メッセージ10Aは、第1の実施形態に係る出力通知フォーマットメッセージ10に比較して、3D領域32及び領域33に代えて、3Dストラクチャ領域34及び予備領域35を含む。ここで、3Dストラクチャ領域34は、送信されるビデオデータの種別が二次元のビデオデータと三次元のビデオデータとのうちのいずれであるか、及び、送信されるビデオデータが三次元のビデオデータである場合に当該三次元のビデオデータが所定の複数のフォーマット構造のうちのどのフォーマット構造を用いて送信されるかを識別するための3Dストラクチャコードを格納する。
 次に、ソース機器110Aがシンク機器120AにAVデータを送信するときの、ソース機器110A及びシンク機器120Aの動作を説明する。まず始めに、ソース機器110Aは、ビデオデータ及びオーディオデータをシンク機器120Aに送信する前に、送信するビデオデータの種別及びフォーマット構造に基づいて、3Dストラクチャテーブル115vを参照して、3Dストラクチャ領域34に格納する3Dストラクチャコードを決定し、当該決定された3Dストラクチャコードを格納する3Dストラクチャ領域34を含む出力フォーマット通知メッセージ10Aを、シンク機器120Aに送信する。さらに、ソース機器110Aは、出力フォーマット通知メッセージ10Aを送信した後に、シンク機器120AにAVデータを送信する。シンク機器120Aは、ソース機器110Aからの出力フォーマット通知メッセージ10Aの3Dストラクチャ領域34に格納された3Dストラクチャコードを検出し、当該検出された3Dストラクチャコードに基づいて、3Dストラクチャテーブル127vを参照して、ソース機器110Aから送信されるビデオデータの種別及びフォーマット構造を識別する。そして、シンク機器120Aは、識別されたビデオデータの種別及びフォーマット構造に基づいて、受信されるビデオデータをデコードする。
 以上説明したように、本実施形態によれば、ワイヤレスHDの無線伝送方法において、ビデオデータの出力フォーマット通知メッセージ10Aは送信するビデオデータの3Dストラクチャコードを格納する3Dストラクチャ領域34を含むので、ソース機器110Aがシンク機器120Aに3Dコンテンツデータのビデオデータを送信する前に、出力フォーマット通知メッセージ10Aの3Dストラクチャ領域34を用いて、ビデオデータが三次元のビデオデータであること及び当該ビデオデータのフォーマット構造を通知することができる。また、シンク機器120Aは、受信された出力フォーマット通知メッセージ10Aの3Dストラクチャ領域34に格納された3Dストラクチャコードに基づいて、ソース機器110Aからのビデオデータをデコードできる。従って、本実施形態によれば、三次元のビデオデータをソース機器110Aからシンク機器120Aに、出力フォーマット通知メッセージ10Aを用いて通知されたフォーマット構造で送信できる。
 また、本実施形態によれば、ソース機器110Aは、ビデオデータを送信する前に、ビデオデータを送信するためのパケットとは別の1つのパケットを用いて、出力フォーマット通知メッセージ10Aをシンク機器120Aに送信する。従って、シンク機器120Aは、ビデオデータを受信する前に、当該ビデオデータの種別及びフォーマット構造を識別でき、ビデオデータと当該ビデオデータの種別及びフォーマット構造を識別を識別するためのデータとを同一のパケットを用いて送信する場合に比較して、シンク機器120Aにおいてビデオデータをスムーズに再生できる。さらに、本実施形態に係る出力フォーマット通知メッセージ10Aによれば、二次元のビデオデータ及び三次元のビデオデータに共通のパラメータを、領域23~31に格納したので、ビデオデータの種別毎に別の出力フォーマットメッセージをシンク機器120Aに送信する必要がない。
第3の実施形態.
 図10は、本発明の第3の実施形態に係るビデオデータの伝送方法を用いてビデオデータを伝送する無線通信システムの構成を示すブロック図である。また、図11及び図12は、図10のVICテーブル115ta及び127taを示す表であり、図13は、本発明の第3の実施形態に係る出力フォーマット通知メッセージ10Bのフォーマットを示す図である。本実施形態は、第1の実施形態に比較して以下の点が異なる。
(1)ソース機器110Bにおいて、メモリ115は、VICテーブル115tに代えてVICテーブル115taを予め格納すること。
(2)シンク機器120Bにおいて、メモリ127は、VICテーブル127tに代えてVICテーブル127taを予め格納すること。
(3)出力フォーマット通知メッセージ10Bは、出力フォーマット通知メッセージ10に比較して、二次元のビデオデータのビデオフォーマットを識別するVICを格納するビデオコード領域22に代えて、三次元のビデオデータのビデオフォーマットを識別するVICを格納する8ビットのビデオコード領域22Aを含み、3D領域32及び予備領域33に代えて5ビットの予備領域36を含むこと。
 第1及び第2の実施形態では、図2及び図3に示すように、VICテーブル115t及び127tは、VICと、ビデオデータの垂直有効画素数と、水平有効画素数と、走査方法と、垂直同期周波数との関係を示すように構成されていた。これに対して、本実施形態では、図11及び図12に示すように、VICテーブル115ta及び127taは、VICと、ビデオデータの垂直有効画素数と、水平有効画素数と、走査方法と、ビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット構造と、垂直同期周波数との関係を示すように構成される。すなわち、本実施形態において、VICは、送信されるビデオデータの種別と、ビデオデータの種別が三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット構造を識別する。図11及び図12において、1から37までの間の各VIC及び128から136までの間の各VICは、図3及び図4のVICテーブルと同様に、2Dコンテンツデータ(二次元のビデオデータを含むコンテンツデータである。)のビデオフォーマットにそれぞれ割り当てられ、38から40までの間の各VICは、3Dコンテンツデータのビデオフォーマットに、以下のように割り当てられている。
(1)VICの38は、1920ピクセルの有効水平画素数と、1080ピクセルの有効垂直画素数と、プログレッシブスキャンである走査方法と、23.97Hzのフィールドレートと、フレームパッキングのフォーマット構造を有するビデオフォーマットに割り当てられている。
(2)VICの39は、1280ピクセルの有効水平画素数と、720ピクセルの有効垂直画素数と、プログレッシブスキャンである走査方法と、53.94Hzのフィールドレートと、フレームパッキングのフォーマット構造を有するビデオフォーマットに割り当てられている。
(3)VICの40は、1280ピクセルの有効水平画素数と、720ピクセルの有効垂直画素数と、プログレッシブスキャンである走査方法と、50Hzのフィールドレートと、フレームパッキングのフォーマット構造を有するビデオフォーマットに割り当てられている。
 図13において、出力フォーマット通知メッセージ10Bは、第1の実施形態に係る出力フォーマット通知メッセージ10に比較して、二次元のビデオデータのビデオフォーマットを識別するVICを格納するビデオコード領域22に代えて、三次元のビデオデータのビデオフォーマットを識別するVICを格納する8ビットのビデオコード領域22Aを含み、3D領域32及び予備領域33に代えて5ビットの予備領域36を含む。
 次に、ソース機器110Bがシンク機器120BにAVデータを送信するときの、ソース機器110B及びシンク機器120Bの動作を説明する。まず始めに、ソース機器110は、AVデータをシンク機器120に送信する前に、送信するビデオデータの種別と、垂直有効画素数と、水平有効画素数と、走査方法と、ビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット構造と、垂直同期周波数とに基づいて、VICテーブル115taを参照して、ビデオコード領域22Aに格納するVICを決定し、当該決定された値を格納するビデオコード領域22Aを含む出力フォーマット通知メッセージ10Bを、シンク機器120Bに送信する。さらに、ソース機器110Bは、出力フォーマット通知メッセージ10Bを送信した後に、シンク機器120BにAVデータを送信する。シンク機器120Bは、ソース機器110Bからの出力フォーマット通知メッセージ10Bのビデオコード領域22Aに格納されたVICを検出し、検出されたVICに基づいてVICテーブル127taを参照して、ソース機器110Bから送信されるビデオデータの種別と、垂直有効画素数と、水平有効画素数と、走査方法と、ビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット構造と、垂直同期周波数とを識別する。そして、シンク機器120Bは、識別されたビデオデータの種別と、垂直有効画素数と、水平有効画素数と、走査方法と、ビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット構造と、垂直同期周波数とに基づいて、受信されるビデオデータをデコードして表示する。
 例えば、ソース機器110Bは、三次元のビデオデータを送信するときは、38から40までの間のVICのうちから1つのVICを選択して出力フォーマット通知メッセージ10Bのビデオコード領域22Aに格納して、当該選択されたVICをシンク機器120Bに通知する。さらに、ソース機器110Bは、出力フォーマット通知メッセージ10Bを送信した後に、3Dコンテンツデータをシンク機器120Bに送信する。シンク機器120Bは、出力フォーマット通知メッセージ10Bのビデオコード領域22のデータ値が38から40までの値であることを検出することにより、ソース機器110Bから送信されるビデオデータが三次元のビデオデータであり、かつ当該三次元のビデオデータのフォーマット構造がフレームパッキングであることを識別する。
 以上説明したように、本実施形態によれば、ワイヤレスHDの無線伝送方法において、ビデオデータの出力フォーマット通知メッセージ10Bは、送信されるビデオデータの種別と、垂直有効画素数と、水平有効画素数と、走査方法と、ビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット構造と、垂直同期周波数とを識別するVICを格納するビデオコード領域22Aを含むので、ソース機器110Bがシンク機器120Bに3Dコンテンツデータのビデオデータを送信する前に、出力フォーマット通知メッセージ10Bのビデオコード領域22Aを用いて、ビデオデータが三次元のビデオデータであること及び当該ビデオデータのフォーマット構造を通知することができる。また、シンク機器120Bは、受信された出力フォーマット通知メッセージ10Bのビデオコード領域22Aに格納されたVICに基づいて、ソース機器110Bからのビデオデータをデコードできる。従って、本実施形態によれば、三次元のビデオデータをソース機器110Bからシンク機器120Bに、出力フォーマット通知メッセージ10Bを用いて通知されたフォーマット構造で送信できる。
 また、本実施形態によれば、ソース機器110Bは、ビデオデータを送信する前に、ビデオデータを送信するためのパケットとは別の1つのパケットを用いて、出力フォーマット通知メッセージ10Bをシンク機器120Bに送信する。従って、シンク機器120Bは、ビデオデータを受信する前に、当該ビデオデータの種別及びフォーマット構造を識別でき、ビデオデータと当該ビデオデータの種別及びフォーマット構造を識別を識別するためのデータとを同一のパケットを用いて送信する場合に比較して、シンク機器120Bにおいてビデオデータをスムーズに再生できる。さらに、本実施形態に係る出力フォーマット通知メッセージ10によれば、二次元のビデオデータ及び三次元のビデオデータに共通のパラメータを、領域23~31に格納したので、ビデオデータの種別毎に別の出力フォーマットメッセージをシンク機器120Bに送信する必要がない。
第4の実施形態.
 図14は、本発明の第4の実施形態に係る出力フォーマット通知メッセージ10Cのフォーマットを示す図である。本実施形態に係る出力フォーマット通知メッセージ10Cは、第2の実施形態に係るシンク機器120Aからソース機器110Aに送信される。本実施形態に係る出力フォーマット通知メッセージ10Cは、第2の実施形態に係る出力フォーマット通知メッセージ10Aに比較して、3Dストラクチャ領域34及び予備領域35に代えて、以下の各領域を含むことを特徴としている。
(1)3Dコンテンツデータ情報の有無、すなわち、送信されるビデオデータの種別が二次元のビデオデータ及び三次元のビデオデータのうちのいずれであるかを識別するデータを格納する1ビットの3D領域32A。3D領域32Aは、送信されるビデオデータが二次元のビデオデータであるときには0を格納する一方、送信されるビデオデータが三次元のビデオデータであるときには1を格納する。
(2)送信されるビデオデータの3Dストラクチャコード(図8参照。)を格納する4ビットの3Dストラクチャ領域41。
(3)3Dメタデータ領域47-0,47-1,…,47-Nがあるときに1を格納し、ないときに0を格納する1ビットの3Dメタデータプレゼント(3D_Metadata_present)領域43。
(4)3D拡張データを表すデータを格納する4ビットの3Dエクステンションデータ(3D_Ext_Data)領域44。
(5)3Dメタデータ領域47-0,47-1,…,47-Nに格納される3Dメタデータのタイプを表すデータを格納する3ビットの3Dメタデータタイプ(3D_Metadata_type)領域45。
(6)3Dメタデータ領域47-0,47-1,…,47-Nの総データ長を格納する5ビットの3Dメタデータ長(3D_Metadata_Length)領域46。
(7)8ビットのサイズをそれぞれ有しかつ3Dメタデータをそれぞれ格納するN+1個(Nは0又は正の整数である。)の3Dメタデータ領域47-0,47-1,…,47-N(3D_Metadata_0,3D_Metadata_1,…,3D_Metadata_N)。
(8)予備領域49。
 次に、ソース機器110Aがシンク機器120AにAVデータを送信するときの、ソース機器110A及びシンク機器120Aの動作を説明する。まず始めに、ソース機器110Aは、AVデータをシンク機器120Aに送信する前に、送信するビデオデータの種別及びフォーマット構造に基づいて、3Dストラクチャテーブル115vを参照して、3Dストラクチャコードを選択し、選択された3Dストラクチャコードを3Dストラクチャ領域41に格納する。また、ソース機器110Aは、送信するビデオデータの種別に基づいて、3D領域32Aに0又は1を格納する。さらに、ソース機器110Aは、送信するビデオデータの種別及びフォーマット構造に基づいて、3Dメタデータプレゼント領域43と、3Dエクステンションデータ領域44と、3Dメタデータタイプ領域45と、3Dメタデータ長領域46と、3Dメタデータ領域47-0,47-1,…,47-Nとに所定のデータ値を格納する。そして、ソース機器110Aは、出力フォーマット通知メッセージ10Cをシンク機器120Aに送信した後に、シンク機器120AにAVデータを送信する。シンク機器120Aは、ソース機器110からの出力フォーマット通知メッセージ10Cの3Dストラクチャ領域41に格納された3Dストラクチャコードを検出し、検出された3Dストラクチャコードに基づいて、3Dストラクチャテーブル127vを参照して、ソース機器110Aから送信されるビデオデータの種別及びフォーマット構造を識別する。そして、シンク機器120Aは、識別されたビデオデータの種別及びフォーマット構造に基づいて、受信されるビデオデータをデコードする。
 例えば、ソース機器110Aは、送信するビデオデータが三次元のビデオデータである場合、3D領域32Aを1にセットし、送信する3Dコンテンツデータに関するフォーマット情報である3Dメタデータに基づいて、3Dストラクチャ領域41と、3Dメタデータプレゼント領域43と、3Dエクステンションデータ領域44と、3Dメタデータタイプ領域45と、3Dメタデータ長領域46と、3Dメタデータ領域47-0,47-1,…,47-Nとに所定のデータを格納し、シンク機器120に通知する。ここで、3Dメタデータプレゼント領域43に0がセットされているとき、3Dメタデータタイプ領域45と、3Dメタデータ長領域46と、3Dメタデータ領域47-0,47-1,…,47-Nは設けられない。シンク機器120Aは、受信した出力フォーマット通知メッセージ10の3D領域32Aが1にセットされている場合、ソース機器110Aから送信されるビデオデータが三次元のビデオデータであることを検出し、出力フォーマット通知メッセージ10に格納された各データに基づいて、3Dコンテンツデータに関するフォーマット情報を取得する。また、ソース機器110Aは、出力フォーマット通知メッセージ10Cをシンク機器120Aに送信した後に、3Dコンテンツデータをシンク機器120Aに送信する。
 また、ソース機器110Aは、送信するビデオデータが二次元のビデオデータである場合、3D領域32Aを0にセットし、シンク機器120に通知する。ここで、3D領域32Aに格納される値が0の場合には、3Dストラクチャ領域41と、3Dメタデータプレゼント領域43と、3Dエクステンションデータ領域44と、3Dメタデータタイプ領域45と、3Dメタデータ長領域46と、3Dメタデータ領域47-0,47-1,…,47-Nとは設けられない。シンク機器120Aは、3D領域32Aに格納された値が0である場合、ソース機器110から送信されるビデオデータが二次元のビデオデータであることを検出する。また、ソース機器110Aは、出力フォーマット通知メッセージ10Cをシンク機器120Aに送信した後に、2次元のビデオデータを含む2Dコンテンツデータをシンク機器120Aに送信する。
 以上説明したように、本実施形態によれば、ワイヤレスHDの無線伝送方法において、ビデオデータの出力フォーマット通知メッセージ10Cは、3D領域32Aと、3Dストラクチャ領域41と、3Dメタデータプレゼント領域43と、3Dエクステンションデータ領域44と、3Dメタデータタイプ領域43と、3Dメタデータ長領域46と、3Dメタデータ領域47-0,47-1,…,47-Nとを含む。従って、ソース機器110Aがシンク機器120Aに3Dコンテンツデータのビデオデータを送信する前に、出力フォーマット通知メッセージ10Cの3D領域32Aと、3Dストラクチャ領域41と、3Dメタデータプレゼント領域43と、3Dエクステンションデータ領域44と、3Dメタデータタイプ領域43と、3Dメタデータ長領域46と、3Dメタデータ領域47-0,47-1,…,47-Nとを用いて、ビデオデータが三次元のビデオデータであることと、当該ビデオデータのフォーマット構造と、3Dコンテンツデータの各種フォーマット情報をシンク機器120Aに通知することができる。また、シンク機器120Aは、受信された出力フォーマット通知メッセージ10Cの3D領域32A及び3Dストラクチャ領域41に格納された各データに基づいて、ソース機器110Aからのビデオデータをデコードできる。従って、本実施形態によれば、三次元のビデオデータをソース機器110Aからシンク機器120Aに、出力フォーマット通知メッセージ10Cを用いて通知されたフォーマット構造で送信できる。
 また、本実施形態によれば、ソース機器110Aは、ビデオデータを送信する前に、ビデオデータを送信するためのパケットとは別の1つのパケットを用いて、出力フォーマット通知メッセージ10Cをシンク機器120Aに送信する。従って、シンク機器120Aは、ビデオデータを受信する前に、当該ビデオデータの種別及びフォーマット構造を識別でき、ビデオデータと当該ビデオデータの種別及びフォーマット構造を識別を識別するためのデータとを同一のパケットを用いて送信する場合に比較して、シンク機器120Aにおいてビデオデータをスムーズに再生できる。さらに、本実施形態に係る出力フォーマット通知メッセージ10Cによれば、二次元のビデオデータ及び三次元のビデオデータに共通のパラメータを、領域23~31に格納したので、ビデオデータの種別毎に別の出力フォーマットメッセージをシンク機器120Aに送信する必要がない。
第5の実施形態.
 図15は、本発明の第5の実施形態に係る出力フォーマット通知メッセージ10Dのフォーマットを示す図である。本実施形態に係る出力フォーマット通知メッセージ10Dは、第2の実施形態に係るシンク機器120Aからソース機器110Aに送信される。本実施形態に係る出力フォーマット通知メッセージ10Dは、第2の実施形態に係る出力フォーマット通知メッセージ10Aに比較して、以下の点が異なる。
(1)ビデオフォーマット情報を表すデータを格納するフォーマット種別領域19に代えて、三次元ビデオフォーマット情報を表すデータを格納するフォーマット種別領域19Aを含む。
(2)領域23~31,34,35に代えて、以下の各領域を含む。
(a)送信されるビデオデータの3Dストラクチャコードを格納する4ビットの3Dストラクチャ領域51。
(b)3Dメタデータ領域57-0,57-1,…,57-Nがあるときに1を格納し、ないときに0を格納する1ビットの3Dメタデータプレゼント領域53。
(c)3D拡張データを表すデータを格納する4ビットの3Dエクステンションデータ領域54。
(d)3Dメタデータ領域57-0,57-1,…,57-Nに格納される3Dメタデータのタイプを表すデータを格納する3ビットの3Dメタデータタイプ領域55。
(e)3Dメタデータ領域57-0,57-1,…,57-Nの総データ長を格納する5ビットの3Dメタデータ長領域56。
(f)8ビットのサイズをそれぞれ有しかつ3Dメタデータをそれぞれ格納するN+1個(Nは0又は正の整数である。)の3Dメタデータ領域57-0,57-1,…,57-N。
(8)予備領域59。
 なお、領域51,53,54,55,56,57-0,57-1,…,57-Nはそれぞれ、上述した領域41,43,44,45,46,47-0,47-1,…,47-Nと同様に構成される。
 本実施形態は、上記各実施形態に比較して、フォーマット種別領域19Aに格納されるデータとして、三次元ビデオフォーマット情報を表すデータを新たに定義したことを特徴としている。
 次に、ソース機器110Aがシンク機器120AにAVデータを送信するときの、ソース機器110A及びシンク機器120Aの動作を説明する。まず始めに、ソース機器110Aは、AVデータをシンク機器120Aに送信する前に、送信するビデオデータの種別及びフォーマット構造に基づいて、3Dストラクチャテーブル115vを参照して、3Dストラクチャコードを選択し、選択された3Dストラクチャコードを3Dストラクチャ領域51に格納する。また、ソース機器110Aは、送信するビデオデータの種別に基づいて、3D領域32Aに0又は1を格納する。さらに、ソース機器110Aは、送信するビデオデータの種別及びフォーマット構造に基づいて、3Dメタデータプレゼント領域53と、3Dエクステンションデータ領域54と、3Dメタデータタイプ領域55と、3Dメタデータ長領域56と、3Dメタデータ領域57-0,57-1,…,57-Nとに所定のデータ値を格納する。そして、ソース機器110Aは、出力フォーマット通知メッセージ10Cをシンク機器120Aに送信した後に、シンク機器120AにAVデータを送信する。シンク機器120Aは、ソース機器110からの出力フォーマット通知メッセージ10Cの3Dストラクチャ領域51に格納された3Dストラクチャコードを検出し、検出された3Dストラクチャコードに基づいて、3Dストラクチャテーブル127vを参照して、ソース機器110Aから送信されるビデオデータの種別及びフォーマット構造を識別する。そして、シンク機器120Aは、識別されたビデオデータの種別及びフォーマット構造に基づいて、受信されるビデオデータをデコードする。
 例えば、ソース機器110Aは、送信するビデオデータが三次元のビデオデータである場合、フォーマット種別領域19Aに3Dコンテンツデータ専用の出力フォーマットに関する通知メッセージデータ値、例えば、「0x07」をセットする。そして、送信する3Dコンテンツデータに関するフォーマット情報である3Dメタデータに基づいて、3Dストラクチャ領域51と、3Dメタデータプレゼント領域53と、3Dエクステンションデータ領域54と、3Dメタデータタイプ領域55と、3Dメタデータ長領域56と、3Dメタデータ領域57-0,57-1,…,57-Nとに所定の情報を格納し、シンク機器120Aに通知する。シンク機器120Aは、ソース機器110Aからの出力フォーマット通知メッセージ10Dに基づいて、送信される3Dコンテンツデータに関するフォーマット情報を取得する。ここで、3Dメタデータプレゼント領域53に0がセットされているときは、3Dメタデータタイプ領域55と、3Dメタデータ長領域56と、3Dメタデータ領域57-0,57-1,…,57-Nとは設けられない。また、ソース機器110Aは、出力フォーマット通知メッセージ10Cをシンク機器120Aに送信した後に、3Dコンテンツデータをシンク機器120Aに送信する。
 また、ソース機器110Aは、送信するビデオデータが二次元のビデオデータである場合、出力フォーマット通知メッセージ10Dに代えて、従来技術に係るワイヤレスHDに準拠した出力フォーマット通知メッセージ(出力フォーマット通知メッセージ10の3D領域32及び予備領域33に代えて、5ビットの予備領域を含む。)をシンク機器120Aに送信する。
 以上説明したように、本実施形態によれば、ワイヤレスHDの無線伝送方法において、ビデオデータの出力フォーマット通知メッセージ10Dは、3Dストラクチャ領域51と、3Dメタデータプレゼント領域53と、3Dエクステンションデータ領域54と、3Dメタデータタイプ領域53と、3Dメタデータ長領域56と、3Dメタデータ領域57-0,57-1,…,57-Nとを含む。従って、ソース機器110Aがシンク機器120Aに3Dコンテンツデータのビデオデータを送信する前に、出力フォーマット通知メッセージ10Cの3D領域32Aと、3Dストラクチャ領域51と、3Dメタデータプレゼント領域53と、3Dエクステンションデータ領域54と、3Dメタデータタイプ領域53と、3Dメタデータ長領域56と、3Dメタデータ領域57-0,57-1,…,57-Nとを用いて、ビデオデータが三次元のビデオデータであることと、当該ビデオデータのフォーマット構造と、3Dコンテンツデータの各種フォーマット情報をシンク機器120Aに通知することができる。また、シンク機器120Aは、受信された出力フォーマット通知メッセージ10Cの3D領域32A及び3Dストラクチャ領域51に格納された各データに基づいて、ソース機器110Aからのビデオデータをデコードできる。従って、本実施形態によれば、三次元のビデオデータをソース機器110Aからシンク機器120Aに、出力フォーマット通知メッセージ10Cを用いて通知されたフォーマット構造で送信できる。
 また、本実施形態によれば、ソース機器110Aは、ビデオデータを送信する前に、ビデオデータを送信するためのパケットとは別の1つのパケットを用いて、出力フォーマット通知メッセージ10Dをシンク機器120Aに送信する。従って、シンク機器120Aは、ビデオデータを受信する前に、当該ビデオデータの種別及びフォーマット構造を識別でき、ビデオデータと当該ビデオデータの種別及びフォーマット構造を識別を識別するためのデータとを同一のパケットを用いて送信する場合に比較して、シンク機器120Aにおいてビデオデータをスムーズに再生できる。
第6の実施形態.
 図16は、本発明の第6の実施形態に係る出力フォーマット通知メッセージ10Eのフォーマットを示す図である。本実施形態に係る出力フォーマット通知メッセージ10Eは、第2の実施形態に係るシンク機器120Aからソース機器110Aに送信される。本実施形態に係る出力フォーマット通知メッセージ10Eは、第4の実施形態に係る出力フォーマット通知メッセージ10Cに比較して、予備領域33に代えて、2ビットのフィールド周波数選択領域61と2ビットの予備領域62とを含むことを特徴としている。
 図16において、フィールド周波数選択領域61は、送信されるビデオデータのVICによって2つのフィールドレートが識別される場合に、当該ビデオデータのフィールドレートが上記2つのフィールドレートのうちの低い方のフィールドレートであるときには0を格納し、高い方のフィールドレートであるときには1を格納し、両方のフィールドレートであるときには2を格納する。
 次に、ソース機器110Aがシンク機器120AにAVデータを送信するときの、ソース機器110A及びシンク機器120Aの動作を説明する。まず始めに、ソース機器110Aは、AVデータをシンク機器120Aに送信する前に、送信するビデオデータの種別及びフォーマット構造に基づいて、3Dストラクチャテーブル115vを参照して、3Dストラクチャコードを選択し、選択された3Dストラクチャコードを3Dストラクチャ領域41に格納する。また、ソース機器110Aは、送信するビデオデータの種別に基づいて、3D領域32Aに0又は1を格納する。さらに、ソース機器110Aは、送信するビデオデータの種別及びフォーマット構造に基づいて、3Dメタデータプレゼント領域43と、3Dエクステンションデータ領域44と、3Dメタデータタイプ領域45と、3Dメタデータ長領域46と、3Dメタデータ領域47-0,47-1,…,47-Nとに所定のデータ値を格納する。そして、ソース機器110Aは、出力フォーマット通知メッセージ10Cをシンク機器120Aに送信した後に、シンク機器120AにAVデータを送信する。シンク機器120Aは、ソース機器110からの出力フォーマット通知メッセージ10Cの3Dストラクチャ領域41に格納された3Dストラクチャコードを検出し、検出された3Dストラクチャコードに基づいて、3Dストラクチャテーブル127vを参照して、ソース機器110Aから送信されるビデオデータの種別及びフォーマット構造を識別する。そして、シンク機器120Aは、識別されたビデオデータの種別及びフォーマット構造に基づいて、受信されるビデオデータをデコードする。
 例えば、ソース機器110Aは、送信するビデオデータが三次元のビデオデータである場合、3D領域32Aを1にセットし、送信する3Dコンテンツデータに関するフォーマット情報である3Dメタデータに基づいて、3Dストラクチャ領域41と、3Dメタデータプレゼント領域43と、3Dエクステンションデータ領域44と、3Dメタデータタイプ領域45と、3Dメタデータ長領域46と、3Dメタデータ領域47-0,47-1,…,47-Nとに所定のデータを格納し、シンク機器120に通知する。ここで、フィールド周波数選択領域61は、ビデオコード領域22に格納されたVICによって2つのフィールドレートが識別される場合には、当該2つのフィールドレートのうちの少なくとも一方を選択するためのデータを格納する。例えば、図2に示すように、VICが20の場合は、23.97Hzと24Hzの各フィールドレートが識別されるが、フィールド周波数選択領域61に1を格納することにより23.97Hzを選択し、2を格納することにより24Hzを選択し、0を格納することにより23.97Hzと24Hzとの両方を選択できる。シンク機器120Aは、受信した出力フォーマット通知メッセージ10の3D領域32Aが1にセットされている場合、ソース機器110Aから送信されるビデオデータが三次元のビデオデータであることを検出し、出力フォーマット通知メッセージ10に格納された各データに基づいて、3Dコンテンツデータに関するフォーマット情報を取得する。また、シンク機器120Aは、ビデオコード領域22に格納されたVIC及びフィールド周波数選択領域61の値に基づいてVICテーブル127tを参照して、フィールドレートを選択して取得する。また、ソース機器110Aは、出力フォーマット通知メッセージ10Cをシンク機器120Aに送信した後に、3Dコンテンツデータをシンク機器120Aに送信する。
 また、ソース機器110Aは、送信するビデオデータが二次元のビデオデータである場合、3D領域32Aを0にセットし、シンク機器120に通知する。ここで、3D領域32Aに格納される値が0の場合には、3Dストラクチャ領域41と、3Dメタデータプレゼント領域43と、3Dエクステンションデータ領域44と、3Dメタデータタイプ領域45と、3Dメタデータ長領域46と、3Dメタデータ領域47-0,47-1,…,47-Nとは設けられない。シンク機器120Aは、3D領域32Aに格納された値が0である場合、ソース機器110から送信されるビデオデータが二次元のビデオデータであることを検出する。また、ソース機器110Aは、出力フォーマット通知メッセージ10Cをシンク機器120Aに送信した後に、2次元のビデオデータを含む2Dコンテンツデータをシンク機器120Aに送信する。ここで、フィールド周波数選択領域61に格納される値は、ソース機器110が送信するビデオデータが二次元のビデオデータであるか、三次元のビデオデータであるかに依存しない。
 以上説明したように、本実施形態によれば、ワイヤレスHDの無線伝送方法において、ビデオデータの出力フォーマット通知メッセージ10Eがフィールド周波数選択領域61を含むので、第4の実施形態に比較して、ビデオコード領域22に格納されたVICによって2つのフィールドレートが識別されるときに、当該2つのフィールドレートのうちの少なくとも一方を選択することができるという特有の作用効果を奏する。
第7の実施形態.
 図47及び図48は、本発明の第7の実施形態に係るVICテーブル115ta及び127taを示す表である。本実施形態は、第3の実施形態に比較して、VICの割り当て方のみが異なる。本実施形態において、96から99までの間の各VICは、三次元のビデオデータのビデオフォーマットに対して割り当てられている。本実施形態は、第3の実施形態と同様の特有の作用効果を奏する。
 なお、上記各実施形態において、ソース機器110,110A,110Bを、シンク機器120,120A,120BとそれぞれワイヤレスHDに準拠した無線伝送路で無線接続しているが、本発明はこれに限らず、ワイヤレスHD以外の無線通信規格に準拠した無線伝送路又は有線伝送ケーブルを用いて接続してもよい。この場合、ソース機器は、上記送信されるビデオデータの種別が(a)第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元のビデオデータと、(b)第3のビデオフレームデータを含む二次元のビデオデータとのうちのいずれであるかを表すデータ、及び、上記送信されるビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を含む出力フォーマット通知メッセージ10,10A,10B,10C,10D又は10Eを、上記シンク機器に送信する。また、シンク機器は、出力フォーマット通知メッセージ10,10A,10B,10C,10D又は10Eを上記ソース機器から受信し、上記受信された出力フォーマット通知メッセージ10,10A,10B,10C,10D又は10Eに基づいて、上記送信されるビデオデータの種別、及び上記送信されるビデオデータの種別が三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を識別し、上記ソース機器から上記ビデオデータを受信し、上記ビデオデータを、上記識別された種別及びフォーマット情報に基づいてデコードする。
 なお、上記各実施形態において、3Dストラクチャコードに割り当てられる値は、図8に示された値以外の値であってもよいし、三次元のビデオデータのフォーマット構造は、図8に示したものに限らない。また、VICテーブル115ta及び127taにおいて三次元のビデオデータのフォーマットに割り当てられる値は、第3及び第7の実施形態において割り当てられた値に限らない。さらに、第3及び第7の実施形態において、3種類の3DコンテンツのビデオフォーマットにVICを割り当てたが、ビデオフォーマットの数は3種類に限らず、上述した3種類のビデオフォーマット以外の有効画素数やフィールドレートやストラクチャ構造を持った3Dコンテンツのビデオフォーマットであってもよい。
 また、上記各実施形態において、帯域管理部121bはシンク機器120,120A及び120Bに設けられたが、本発明はこれに限らず、ソース機器110,110A及び110B又は他の機器に設けられてもよい。
 以上詳述したように、本発明に係るビデオデータの伝送方法、当該ビデオデータを送信するソース機器、当該ビデオデータを受信するシンク機器、並びに当該ソース機器及びシンク機器を備えた通信システムによれば、ソース機器は、ビデオデータをシンク機器に送信する前に、上記送信されるビデオデータの種別が(a)第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元のビデオデータと、(b)第3のビデオフレームデータを含む二次元のビデオデータとのうちのいずれであるかを識別するデータ、及び、上記送信されるビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を含む出力フォーマット通知メッセージを、上記シンク機器に送信する。また、シンク機器は、出力フォーマット通知メッセージを上記ソース機器から受信し、上記受信された出力フォーマット通知メッセージに基づいて、上記送信されるビデオデータの種別、及び上記送信されるビデオデータの種別が三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を識別し、上記ソース機器から上記ビデオデータを受信し、上記ビデオデータを、上記識別された種別及びフォーマット情報に基づいてデコードするので、三次元のビデオデータを伝送できる。
 本発明は特に、例えば、ワイヤレスHDなどの無線通信規格に準拠した無線通信システムにおける非圧縮のAVコンテンツデータの伝送に利用できる。
1…デバイス能力要求メッセージ、
2…デバイス能力応答メッセージ、
6…接続要求メッセージ、
7…接続応答メッセージ、
10,10B,10C,10D,10E…出力フォーマット通知メッセージ、
11…オペコード領域、
12…シンクポート領域、
13…VP領域、
14…AP領域、
15…ソースポート領域、
16…総データ長領域、
17…R領域、
18…予備領域、
19,19A…フォーマット種別領域、
20…バージョン情報領域、
21…データ長領域、
22,22A…ビデオコード領域、
23…CS領域、
24…CD領域、
25…PAR領域、
26…CM領域、
27…AFAR領域、
28…CF領域、
29…QR領域、
30…D領域、
31…ID領域、
32,32A…3D領域、
33…予備領域、
34…3Dストラクチャ領域、
35…予備領域、
36…予備領域、
41…3Dストラクチャ領域、
43…3Dメタデータプレゼント領域、
44…3Dエクステンションデータ領域、
45…3Dメタデータタイプ領域、
46…3Dメタデータ長領域、
47-0,47-1~47-N…3Dメタデータ領域、
49…予備領域、
51…3Dストラクチャ領域、
53…3Dメタデータプレゼント領域、
54…3Dエクステンションデータ領域、
55…3Dメタデータタイプ領域、
56…3Dメタデータ長領域、
57-0,57-1~57-N…3Dメタデータ領域、
59…予備領域、
61…フィールド周波数選択領域、
62…予備領域、
110,110A,110B…ソース機器、
111…コントローラ、
112…映像音声再生装置、
113…パケット処理回路、
114…パケット無線送受信回路、
115…メモリ、
115t,115ta…VICテーブル、
115v…3Dストラクチャテーブル、
116…アンテナ、
120,120A,120B…シンク機器、
121…コントローラ、
122…パケット無線送受信回路、
123…パケット処理回路、
124…映像音声処理回路、
125…スピーカ、
126…ディスプレイ、
127…メモリ、
127d…EDIDデータ、
127t,127ta…VICテーブル、
127v…3Dストラクチャテーブル、
181…左目用ビデオフレームデータ、
182…右目用ビデオフレームデータ、
183…合成ビデオフレームデータ。

Claims (11)

  1.  ソース機器からシンク機器にビデオデータを伝送する通信システムのためのソース機器において、
     上記ビデオデータを上記シンク機器に送信する前に、上記送信されるビデオデータの種別が(a)第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元のビデオデータと、(b)第3のビデオフレームデータを含む二次元のビデオデータとのうちのいずれであるかを表すデータ、及び、上記送信されるビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を含む出力フォーマット通知メッセージを、上記シンク機器に送信する第1の制御手段を備えたことを特徴とするソース機器。
  2.  上記ソース機器は、上記ビデオデータが三次元のビデオデータであるときに、ビデオフレーム毎に、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成し、上記合成ビデオフレームデータを上記シンク機器に送信する送信手段を備え、
     上記フォーマット情報は、上記第1のビデオフレームデータと上記第2のビデオフレームデータとを合成ビデオフレームデータに合成するためのパラメータを識別するためのフォーマット構造の情報を含むことを特徴とする請求項1記載のソース機器。
  3.  上記出力フォーマット通知メッセージは、上記送信されるビデオデータが上記二次元のビデオデータと、所定のフォーマット構造を用いて送信される三次元のビデオデータとのうちのいずれであるかを表すデータを格納する3D領域を含むことを特徴とする請求項2記載のソース機器。
  4.  上記出力フォーマット通知メッセージは、上記送信するビデオデータの種別が上記二次元のビデオデータ及び上記三次元のビデオデータのうちのいずれであるか、及び、上記送信されるビデオデータが三次元のビデオデータである場合に当該三次元のビデオデータが所定の複数のフォーマット構造のうちのどのフォーマット構造を用いて送信されるかを識別するための3Dストラクチャコードを格納する3Dストラクチャ領域を含むことを特徴とする請求項2記載のソース機器。
  5.  上記出力フォーマット通知メッセージは、上記送信されるビデオデータの種別と、上記ビデオデータの種別が三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット構造を識別するビデオフォーマット情報識別子を格納するビデオコード領域を含むことを特徴とする請求項2記載のソース機器。
  6.  上記出力フォーマット通知メッセージは、
    (a)上記送信されるビデオデータの種別が二次元のビデオデータ及び三次元のビデオデータのうちのいずれであるかを識別するデータを格納する3D領域と、
    (b)上記送信されるビデオデータの種別が三次元のビデオデータである場合に当該三次元のビデオデータが所定の複数のフォーマット構造のうちのどのフォーマット構造を用いて送信されるかを識別するための3Dストラクチャコードを格納する3Dストラクチャ領域と、
    (c)上記送信されるビデオデータの種別が三次元のビデオデータである場合に当該三次元のビデオデータの3Dメタデータを格納する3Dメタデータ領域とを含むことを特徴とする請求項2記載のソース機器。
  7.  上記フォーマット情報は、上記送信されるビデオデータのフィールドレートと、垂直有効画素数と、水平有効画素数と、垂直同期周波数とをさらに含むことを特徴とする請求項2から6までのうちのいずれか1つの請求項記載のソース機器。
  8.  上記出力フォーマット通知メッセージは、上記二次元のビデオデータ及び上記三次元のビデオデータに共通のパラメータを含むことを特徴とする請求項1から7までのうちのいずれか1つの請求項記載のソース機器。
  9.  ソース機器からシンク機器にビデオデータを伝送する通信システムのためのシンク機器において、
     上記ソース機器によって送信されるビデオデータの種別が(a)第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元のビデオデータと、(b)第3のビデオフレームデータを含む二次元のビデオデータとのうちのいずれであるかを識別するデータ、及び、上記送信されるビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を含む出力フォーマット通知メッセージを上記ソース機器から受信し、上記受信された出力フォーマット通知メッセージに基づいて、上記送信されるビデオデータの種別、及び上記送信されるビデオデータの種別が三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を識別する第2の制御手段と、
     上記ソース機器から上記ビデオデータを受信し、上記ビデオデータを、上記識別された種別及びフォーマット情報に基づいてデコードする受信手段とを備えたことを特徴とするシンク機器。
  10.  ソース機器からシンク機器にビデオデータを伝送する通信システムにおいて、
     請求項1から8までのうちのいずれか1つの請求項記載のソース機器と、
     請求項9記載のシンク機器とを備えたことを特徴とする通信システム。
  11.  ソース機器からシンク機器にビデオデータを伝送する通信システムのためのビデオデータの伝送方法において、
     上記ソース機器により、上記ビデオデータを上記シンク機器に送信する前に、上記送信されるビデオデータの種別が(a)第1のビデオフレームデータと第2のビデオフレームデータとを含む三次元のビデオデータと、(b)第3のビデオフレームデータを含む二次元のビデオデータとのうちのいずれであるかを識別するデータ、及び、上記送信されるビデオデータが三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を含む出力フォーマット通知メッセージを、上記シンク機器に送信するステップと、
     上記シンク機器により、出力フォーマット通知メッセージを上記ソース機器から受信し、上記受信された出力フォーマット通知メッセージに基づいて、上記送信されるビデオデータの種別、及び上記送信されるビデオデータの種別が三次元のビデオデータである場合の当該三次元のビデオデータのフォーマット情報を識別するステップと、
     上記シンク機器により、上記ソース機器から上記ビデオデータを受信し、上記ビデオデータを、上記識別された種別及びフォーマット情報に基づいてデコードするステップとを含むことを特徴とするビデオデータの伝送方法。
PCT/JP2009/007156 2009-05-14 2009-12-24 ビデオデータの伝送方法 WO2010131314A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011513136A JP5351960B2 (ja) 2009-05-14 2009-12-24 ビデオデータの伝送方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US17820809P 2009-05-14 2009-05-14
US61/178,208 2009-05-14
JP2009-124351 2009-05-22
JP2009124351 2009-05-22

Publications (1)

Publication Number Publication Date
WO2010131314A1 true WO2010131314A1 (ja) 2010-11-18

Family

ID=43068177

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/007156 WO2010131314A1 (ja) 2009-05-14 2009-12-24 ビデオデータの伝送方法

Country Status (3)

Country Link
US (1) US8477179B2 (ja)
JP (1) JP5351960B2 (ja)
WO (1) WO2010131314A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140000137A (ko) * 2011-02-09 2014-01-02 소니 주식회사 전자기기, 전자기기에서의 입체화상 정보 송신 방법, 및 전자기기에서의 입체화상 정보 수신 방법

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9198084B2 (en) 2006-05-26 2015-11-24 Qualcomm Incorporated Wireless architecture for a traditional wire-based protocol
US8667144B2 (en) 2007-07-25 2014-03-04 Qualcomm Incorporated Wireless architecture for traditional wire based protocol
US8811294B2 (en) 2008-04-04 2014-08-19 Qualcomm Incorporated Apparatus and methods for establishing client-host associations within a wireless network
US9398089B2 (en) 2008-12-11 2016-07-19 Qualcomm Incorporated Dynamic resource sharing among multiple wireless devices
JP5460702B2 (ja) * 2009-05-14 2014-04-02 パナソニック株式会社 ビデオデータのパケット伝送方法
US20120069894A1 (en) * 2009-06-01 2012-03-22 Toshio Sakimura Method Of Transmitting Video Data
JP4576570B1 (ja) * 2009-06-08 2010-11-10 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
US9264248B2 (en) 2009-07-02 2016-02-16 Qualcomm Incorporated System and method for avoiding and resolving conflicts in a wireless mobile display digital interface multicast environment
US9582238B2 (en) 2009-12-14 2017-02-28 Qualcomm Incorporated Decomposed multi-stream (DMS) techniques for video display systems
IT1401367B1 (it) 2010-07-28 2013-07-18 Sisvel Technology Srl Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.
US9571811B2 (en) * 2010-07-28 2017-02-14 S.I.Sv.El. Societa' Italiana Per Lo Sviluppo Dell'elettronica S.P.A. Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content
KR20120027897A (ko) * 2010-09-14 2012-03-22 삼성전자주식회사 3d 디스플레이 엔진, 상기 3d 디스플레이 엔진의 동작 방법, 및 상기 3d 디스플레이 엔진을 포함하는 3d 디스플레이 시스템
JP4908624B1 (ja) * 2010-12-14 2012-04-04 株式会社東芝 立体映像信号処理装置及び方法
JP4991930B2 (ja) * 2010-12-20 2012-08-08 株式会社東芝 立体映像信号処理装置及び方法
US20130013318A1 (en) 2011-01-21 2013-01-10 Qualcomm Incorporated User input back channel for wireless displays
US8677029B2 (en) * 2011-01-21 2014-03-18 Qualcomm Incorporated User input back channel for wireless displays
US9065876B2 (en) 2011-01-21 2015-06-23 Qualcomm Incorporated User input back channel from a wireless sink device to a wireless source device for multi-touch gesture wireless displays
US9787725B2 (en) 2011-01-21 2017-10-10 Qualcomm Incorporated User input back channel for wireless displays
US8964783B2 (en) * 2011-01-21 2015-02-24 Qualcomm Incorporated User input back channel for wireless displays
US9413803B2 (en) 2011-01-21 2016-08-09 Qualcomm Incorporated User input back channel for wireless displays
US10135900B2 (en) 2011-01-21 2018-11-20 Qualcomm Incorporated User input back channel for wireless displays
US8674957B2 (en) 2011-02-04 2014-03-18 Qualcomm Incorporated User input device for wireless back channel
US10108386B2 (en) 2011-02-04 2018-10-23 Qualcomm Incorporated Content provisioning for wireless back channel
US9503771B2 (en) 2011-02-04 2016-11-22 Qualcomm Incorporated Low latency wireless display for graphics
US10937308B2 (en) 2011-10-28 2021-03-02 Universal Electronics Inc. System and method for optimized appliance control
US10593195B2 (en) 2011-10-28 2020-03-17 Universal Electronics Inc. System and method for optimized appliance control
US9449500B2 (en) 2012-08-08 2016-09-20 Universal Electronics Inc. System and method for optimized appliance control
US9215394B2 (en) 2011-10-28 2015-12-15 Universal Electronics Inc. System and method for optimized appliance control
US11295603B2 (en) 2011-10-28 2022-04-05 Universal Electronics Inc. System and method for optimized appliance control
JP2013102325A (ja) * 2011-11-08 2013-05-23 Olympus Corp 画像送信装置、画像送信方法およびプログラム
US9525998B2 (en) 2012-01-06 2016-12-20 Qualcomm Incorporated Wireless display with multiscreen service
KR101917174B1 (ko) * 2012-02-24 2018-11-09 삼성전자주식회사 전자 장치 사이의 스트림 전송 방법 및 그 방법을 처리하는 전자 장치
JP6467822B2 (ja) * 2014-08-29 2019-02-13 セイコーエプソン株式会社 表示システム、送信装置、及び、表示システムの制御方法
CN105323595B (zh) * 2015-10-28 2018-09-25 北京小鸟看看科技有限公司 基于网络的视频类型识别方法、客户端及服务器
CN106331846B (zh) * 2016-08-17 2019-04-12 青岛海信电器股份有限公司 音频透传的方法及装置
CN112291577B (zh) * 2020-10-16 2023-05-05 北京金山云网络技术有限公司 直播视频的发送方法和装置、存储介质、电子装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法
JP2007336518A (ja) * 2006-05-16 2007-12-27 Sony Corp 伝送方法、伝送システム、送信方法、送信装置、受信方法及び受信装置
JP2008252929A (ja) * 2006-12-15 2008-10-16 Matsushita Electric Ind Co Ltd 無線通信装置
JP2009004877A (ja) * 2007-06-19 2009-01-08 Toshiba Corp データ伝送装置およびデータ伝送方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125367A (ja) * 2001-10-12 2003-04-25 Mitsubishi Electric Corp マルチメディア通信端末
WO2007105362A1 (ja) * 2006-03-07 2007-09-20 Nec Corporation 動画像配信システムおよび変換装置
US8630312B2 (en) 2006-12-04 2014-01-14 Samsung Electronics Company, Ltd. System and method for wireless communication of uncompressed video having connection control protocol

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法
JP2007336518A (ja) * 2006-05-16 2007-12-27 Sony Corp 伝送方法、伝送システム、送信方法、送信装置、受信方法及び受信装置
JP2008252929A (ja) * 2006-12-15 2008-10-16 Matsushita Electric Ind Co Ltd 無線通信装置
JP2009004877A (ja) * 2007-06-19 2009-01-08 Toshiba Corp データ伝送装置およびデータ伝送方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140000137A (ko) * 2011-02-09 2014-01-02 소니 주식회사 전자기기, 전자기기에서의 입체화상 정보 송신 방법, 및 전자기기에서의 입체화상 정보 수신 방법
KR101905918B1 (ko) * 2011-02-09 2018-10-08 소니 주식회사 전자기기, 전자기기에서의 입체화상 정보 송신 방법, 및 전자기기에서의 입체화상 정보 수신 방법

Also Published As

Publication number Publication date
JP5351960B2 (ja) 2013-11-27
US8477179B2 (en) 2013-07-02
US20100289871A1 (en) 2010-11-18
JPWO2010131314A1 (ja) 2012-11-01

Similar Documents

Publication Publication Date Title
WO2010131314A1 (ja) ビデオデータの伝送方法
JP5367814B2 (ja) 映像データの伝送方法
US9787968B2 (en) Transmission apparatus, transmission method, reception apparatus, reception method, and transmission/reception system using audio compression data stream as a container of other information
JP5338166B2 (ja) 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
WO2010026736A1 (ja) 立体映像伝送システム、映像表示装置および映像出力装置
WO2010140199A1 (ja) 映像データの伝送方法
JP4844230B2 (ja) 通信システム、送信装置及び受信装置、通信方法、並びにプログラム
WO2009142001A1 (ja) ソース装置用アダプタ装置
WO2007132877A1 (ja) 通信システム、送信装置及び受信装置、通信方法、並びにプログラム
US20130141534A1 (en) Image processing device and method
JP5460702B2 (ja) ビデオデータのパケット伝送方法
WO2011162087A1 (ja) 画像データ送信装置、画像データ送信装置の制御方法、画像データ送信方法および画像データ受信装置
JP2013062839A (ja) 映像伝送システム、映像入力装置および映像出力装置
JP6098678B2 (ja) 送信方法および送信装置
JP5621944B2 (ja) 送信装置および送信方法
JP5583866B2 (ja) 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
JP2013229885A (ja) 送信装置、立体画像データ送信方法、受信装置および立体画像データ受信方法
JP2017127000A (ja) 受信方法および受信装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09844588

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011513136

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09844588

Country of ref document: EP

Kind code of ref document: A1