JP2016513930A - Data transmission device, data reception device, data transmission / reception system, data transmission method, and data reception method - Google Patents

Data transmission device, data reception device, data transmission / reception system, data transmission method, and data reception method Download PDF

Info

Publication number
JP2016513930A
JP2016513930A JP2015562939A JP2015562939A JP2016513930A JP 2016513930 A JP2016513930 A JP 2016513930A JP 2015562939 A JP2015562939 A JP 2015562939A JP 2015562939 A JP2015562939 A JP 2015562939A JP 2016513930 A JP2016513930 A JP 2016513930A
Authority
JP
Japan
Prior art keywords
audio
data
field
subpacket
packet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015562939A
Other languages
Japanese (ja)
Other versions
JP6514649B2 (en
Inventor
キム,ジョン−ファ
リ,キョン−ジェ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2014/002230 external-priority patent/WO2014142627A1/en
Publication of JP2016513930A publication Critical patent/JP2016513930A/en
Application granted granted Critical
Publication of JP6514649B2 publication Critical patent/JP6514649B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4343Extraction or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream

Abstract

本発明の目的は、ソース装置とシンク装置との間に同じコンテンツと関連した複数のオーディオデータを送受信できるインタフェース規格を提供することにある。本発明の一実施の形態にかかるデータ送信装置は、第1サブパケット及び第2サブパケットを含むパケットを生成するパケット生成部と、前記生成されたパケットをデータ受信装置に送信する送信部とを備え、前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含む。An object of the present invention is to provide an interface standard capable of transmitting and receiving a plurality of audio data related to the same content between a source device and a sink device. A data transmission device according to an embodiment of the present invention includes a packet generation unit that generates a packet including a first subpacket and a second subpacket, and a transmission unit that transmits the generated packet to a data reception device. The first subpacket and the second subpacket include different audio data for the first content.

Description

本発明は、データ送受信方法及び装置に関し、さらに詳細には、同じコンテンツに関する複数のオーディオデータを送受信する、データ送信装置、データ受信装置、データ送受信システム、データ送信方法及びデータ受信方法に関する。   The present invention relates to a data transmission / reception method and apparatus, and more particularly to a data transmission apparatus, a data reception apparatus, a data transmission / reception system, a data transmission method, and a data reception method for transmitting / receiving a plurality of audio data related to the same content.

最近、マルチメディア環境が駆逐されながら多様なデータ送信のための高速有線インタフェース規格が提案されている。例えば、HDMI(登録商標)、MHLは、多様なフォーマットの映像データ、オーディオ信号、制御信号の送信規格を規定する。   Recently, high-speed wired interface standards for various data transmissions have been proposed while the multimedia environment is being destroyed. For example, HDMI (registered trademark) and MHL define transmission standards for video data, audio signals, and control signals in various formats.

しかしながら、従来のオーディオ信号送信規格は、視覚障害者のためのオーディオデータや、コンテンツに対する多国語からなるオーディオデータを送信するなどのインタフェース規格を提示できなかった。   However, conventional audio signal transmission standards cannot present interface standards such as transmitting audio data for visually impaired persons or audio data composed of multiple languages for content.

そのため、ソース装置とシンク装置との間に同じコンテンツと関連した複数のオーディオデータを送受信できるインタフェース規格の必要性が提起される。   Therefore, there is a need for an interface standard capable of transmitting and receiving a plurality of audio data related to the same content between the source device and the sink device.

US2014/0118616US2014 / 0118616

本発明は、上述した必要性によって案出されたものであって、本発明の目的は、ソース装置とシンク装置との間に同じコンテンツに関連した複数のオーディオデータを送受信できるインタフェース規格を提供することにある。   The present invention has been devised by the above-described need, and an object of the present invention is to provide an interface standard capable of transmitting and receiving a plurality of audio data related to the same content between a source device and a sink device. There is.

上記の目的を達成すべく、本発明の一実施の形態にかかる、データ送信装置は、第1サブパケット及び第2サブパケットを含むパケットを生成するパケット生成部と、前記生成されたパケットをデータ受信装置に送信する送信部とを備え、前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含む。   In order to achieve the above object, a data transmitting apparatus according to an embodiment of the present invention includes a packet generation unit that generates a packet including a first subpacket and a second subpacket, and the generated packet as data. A transmission unit configured to transmit to the reception device, wherein the first subpacket and the second subpacket include different audio data for the first content.

このとき、前記第1サブパケットは、非障害者のためのオーディオデータを含み、前記第2サブパケットは、視覚障害者のためのオーディオデータを含むことができる。   At this time, the first subpacket may include audio data for a non-disabled person, and the second subpacket may include audio data for a visually impaired person.

また、前記第1サブパケット及び前記第2サブパケットは、相異なる言語からなるオーディオデータを含むことができる。   The first subpacket and the second subpacket may include audio data in different languages.

また、前記第1サブパケットは、前記第2サブパケットに対するオーディオディスクリプションに該当するオーディオデータを含むことができる。   The first subpacket may include audio data corresponding to an audio description for the second subpacket.

また、前記パケットは、前記第1コンテンツと相異なる第2コンテンツに対するオーディオデータを含む第3サブパケットをさらに含むことができる。   The packet may further include a third subpacket including audio data for the second content different from the first content.

このとき、前記第1サブパケットが含むオーディオデータは、前記第1コンテンツに対する専用オーディオデータで、前記第3サブパケットが含むオーディオデータは、前記第2コンテンツに対する専用オーディオデータであり、前記第2サブパケットが含むオーディオデータは、前記第1コンテンツ及び前記第2コンテンツに対する共通オーディオデータでありうる。   At this time, the audio data included in the first subpacket is dedicated audio data for the first content, the audio data included in the third subpacket is dedicated audio data for the second content, and the second subpacket The audio data included in the packet may be common audio data for the first content and the second content.

また、前記パケットは、前記第2コンテンツに対するオーディオデータを含む第4サブパケットをさらに含み、前記第3サブパケットと前記第4サブパケットとは、相異なるオーディオデータを含むことができる。   The packet may further include a fourth subpacket including audio data for the second content, and the third subpacket and the fourth subpacket may include different audio data.

上記の目的を達成すべく、本発明の一実施の形態にかかる、データ受信装置は、データ送信装置から第1サブパケット及び第2サブパケットを含むパケットを受信する受信部と、前記受信された第1サブパケット及び前記第2サブパケットをパーシングするパーシング部とを備え、前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含む。   In order to achieve the above object, a data receiving apparatus according to an embodiment of the present invention includes a receiving unit that receives a packet including a first subpacket and a second subpacket from the data transmitting apparatus; A parsing unit for parsing the first subpacket and the second subpacket, wherein the first subpacket and the second subpacket include different audio data for the first content.

また、前記第1サブパケットは、非障害者のためのオーディオデータを含み、前記第2サブパケットは、視覚障害者のためのオーディオデータを含むことができる。   The first subpacket may include audio data for a non-disabled person, and the second subpacket may include audio data for a visually impaired person.

また、前記第1サブパケット及び前記第2サブパケットは、相異なる言語からなるオーディオデータを含むことができる。   The first subpacket and the second subpacket may include audio data in different languages.

このとき、前記第1サブパケットは、前記第2サブパケットに対するオーディオディスクリプションに該当するオーディオデータを含むことができる。   In this case, the first subpacket may include audio data corresponding to an audio description for the second subpacket.

また、前記パケットは、前記第1コンテンツと相異なる第2コンテンツに対するオーディオデータを含む第3サブパケットをさらに含むことができる。   The packet may further include a third subpacket including audio data for the second content different from the first content.

このとき、前記第1サブパケットが含むオーディオデータは、前記第1コンテンツに対する専用オーディオデータで、前記第3サブパケットが含むオーディオデータは、前記第2コンテンツに対する専用オーディオデータであり、前記第2サブパケットが含むオーディオデータは、前記第1コンテンツ及び前記第2コンテンツに対する共通オーディオデータでありうる。   At this time, the audio data included in the first subpacket is dedicated audio data for the first content, the audio data included in the third subpacket is dedicated audio data for the second content, and the second subpacket The audio data included in the packet may be common audio data for the first content and the second content.

また、前記パケットは、前記第2コンテンツに対するオーディオデータを含む第4サブパケットをさらに含み、前記第3サブパケットと前記第4サブパケットとは、相異なるオーディオデータを含むことができる。   The packet may further include a fourth subpacket including audio data for the second content, and the third subpacket and the fourth subpacket may include different audio data.

上記の目的を達成すべく、本発明の一実施の形態にかかる、データ送受信システムは、第1サブパケット及び第2サブパケットを含むパケットを生成してデータ受信装置に送信するデータ送信装置と、前記データ送信装置から前記パケットを受信するデータ受信装置とを備え、前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含む。   In order to achieve the above object, a data transmission / reception system according to an embodiment of the present invention includes a data transmission device that generates a packet including a first subpacket and a second subpacket and transmits the packet to a data reception device; A data receiving device for receiving the packet from the data transmitting device, wherein the first subpacket and the second subpacket include different audio data for the first content.

上記の目的を達成すべく、本発明の他の一実施の形態にかかる、データ送信装置は、オーディオメタデータパケットを生成するパケット生成部と、
前記生成されたオーディオメタデータパケットをデータ受信装置に送信する送信部とを備え、前記生成されたオーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む。
In order to achieve the above object, a data transmission device according to another embodiment of the present invention includes a packet generation unit that generates an audio metadata packet;
A transmission unit that transmits the generated audio metadata packet to a data reception device, and a header of the generated audio metadata packet includes a 3D audio field (3D) indicating whether or not a 3D audio sample packet is transmitted. Audio Field).

また、前記生成されたオーディオメタデータパケットのヘッダは、送信されるオーディオストリームの個数情報を表すオーディオストリーム個数フィールド(Number Of Audio Stream Field)をさらに含むことができる。   In addition, the header of the generated audio metadata packet may further include an audio stream number field (Number Of Audio Stream Field) indicating the number information of audio streams to be transmitted.

また、前記生成されたオーディオメタデータパケットのヘッダは、送信される相異なるコンテンツの個数情報を表すビュー個数フィールド(Number Of Views Field)をさらに含むことができる。   In addition, the header of the generated audio metadata packet may further include a view number field (Number Of Views Field) indicating the number information of different contents to be transmitted.

また、前記生成されたオーディオメタデータパケットのペイロード(payload)は、マルチストリームオーディオサンプルパケット(Multi−stream Audio Sample Packet)またはマルチストリームワンビットオーディオサンプルパケット(Multi−stream One Bit Audio Sample Packet)のサブパケットに対するメタデータを表すオーディオメタデータディスクリプタフィールドを含むことができる。   Also, the payload of the generated audio metadata packet is a sub-stream of a multi-stream audio sample packet (Multi-stream Audio Sample Packet) or a multi-stream one-bit audio sample packet (Multi-stream One Bit Audio Sample Packet). An audio metadata descriptor field representing metadata for the packet can be included.

また、前記オーディオメタデータディスクリプタフィールドは、緊急状況放送があるかどうかを表す緊急チャネルフィールド(Emergency Channel Field)、マルチビューにおいて左眼または右眼映像に対応するオーディオデータを含むかどうかを表すマルチビューフィールド(Multivew Field)、オーディオデータに対する言語の識別有無を表す言語コード有効フィールド(Language Code Valid Field)、補助オーディオデータ有無を表す補助オーディオ有効フィールド(Supplemental Audio Valid Field)、メインオーディオデータと前記補助オーディオデータとのプレミックス有無を表すプレミックス補助オーディオフィールド(pre−mixed Supplemental Audio Field)、前記補助オーディオデータのタイプを表す補助オーディオタイプフィールド(Supplemental Audio Type Field)、及びオーディオデータに対する言語コードを表す言語コードフィールド(Language Code Field)のうち、少なくとも一つを含むことができる。   The audio metadata descriptor field includes an emergency channel field indicating whether there is an emergency situation broadcast, and a multi-view indicating whether audio data corresponding to a left-eye or right-eye image is included in the multi-view. A field (Multiview Field), a language code valid field (Language Code Valid Field) indicating whether or not language is identified for audio data, an auxiliary audio valid field (Supplemental Audio Valid Field) indicating the presence or absence of auxiliary audio data, main audio data and the auxiliary audio Premix auxiliary audio field (pre-) indicating presence / absence of premix with data It includes at least one of an “Implemented Supplemental Audio Field”, an auxiliary audio type field indicating the type of the auxiliary audio data (Supplemental Audio Type Field), and a language code field indicating the language code for the audio data (Language Code Field). Can do.

上記の目的を達成すべく、本発明の他の一実施の形態にかかる、データ受信装置は、データ送信装置からオーディオメタデータパケットを受信する受信部と、前記受信されたオーディオメタデータパケットをパーシングするパーシング部とを備え、前記受信されたオーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む。   In order to achieve the above object, a data receiving apparatus according to another embodiment of the present invention includes a receiving unit that receives an audio metadata packet from a data transmitting apparatus, and parses the received audio metadata packet. And a header of the received audio metadata packet includes a 3D audio field (3D Audio Field) indicating whether or not a 3D audio sample packet is transmitted.

また、前記オーディオメタデータパケットのヘッダは、受信されるオーディオストリームの個数情報を表すオーディオストリーム個数フィールド(Number Of Audio Stream Field)をさらに含むことができる。   In addition, the header of the audio metadata packet may further include an audio stream number field (Number Of Audio Stream Field) indicating the number information of the received audio streams.

また、前記オーディオメタデータパケットのヘッダは、受信される相異なるコンテンツの個数情報を表すビュー個数フィールド(Number Of Views Field)をさらに含むことができる。   In addition, the header of the audio metadata packet may further include a view number field (Number Of Views Field) indicating the number information of different received contents.

また、前記オーディオメタデータパケットのペイロード(payload)は、マルチストリームオーディオサンプルパケット(Multi−stream Audio Sample Packet)またはマルチストリームワンビットオーディオサンプルパケット(Multi−stream One Bit Audio Sample Packet)のサブパケットに対するメタデータを表すオーディオメタデータディスクリプタフィールドを含むことができる。   In addition, the payload of the audio metadata packet is a meta for a sub-packet of a multi-stream audio sample packet (Multi-stream Audio Sample Packet) or a multi-stream one-bit audio sample packet (Multi-stream One Bit Audio Sample Packet). An audio metadata descriptor field representing the data can be included.

また、前記オーディオメタデータディスクリプタフィールドは、緊急状況放送があるかどうかを表す緊急チャネルフィールド(Emergency Channel Field)、マルチビューにおいて左眼または右眼映像に対応するオーディオデータを含むかどうかを表すマルチビューフィールド(Multivew Field)、オーディオデータに対する言語の識別有無を表す言語コード有効フィールド(Language Code Valid Field)、補助オーディオデータ有無を表す補助オーディオ有効フィールド(Supplemental Audio Valid Field)、メインオーディオデータと前記補助オーディオデータとのプレミックス有無を表すプレミックス補助オーディオフィールド(pre−mixed Supplemental Audio Field)、前記補助オーディオデータのタイプを表す補助オーディオタイプフィールド(Supplemental Audio Type Field)、及びオーディオデータに対する言語コードを表す言語コードフィールド(Language Code Field)のうち、少なくとも一つを含むことができる。   The audio metadata descriptor field includes an emergency channel field indicating whether there is an emergency situation broadcast, and a multi-view indicating whether audio data corresponding to a left-eye or right-eye image is included in the multi-view. A field (Multiview Field), a language code valid field (Language Code Valid Field) indicating whether or not language is identified for audio data, an auxiliary audio valid field (Supplemental Audio Valid Field) indicating the presence or absence of auxiliary audio data, main audio data and the auxiliary audio Premix auxiliary audio field (pre-) indicating presence / absence of premix with data It includes at least one of an “Implemented Supplemental Audio Field”, an auxiliary audio type field indicating the type of the auxiliary audio data (Supplemental Audio Type Field), and a language code field indicating the language code for the audio data (Language Code Field). Can do.

上記の目的を達成すべく、本発明の他の一実施の形態にかかる、データ送受信システムは、オーディオメタデータパケットを生成してデータ受信装置に送信するデータ送信装置と、前記データ送信装置から前記オーディオメタデータパケットを受信するデータ受信装置とを備え、前記オーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む。   In order to achieve the above object, a data transmission / reception system according to another embodiment of the present invention includes a data transmission device that generates an audio metadata packet and transmits the packet to a data reception device; And a data receiving device that receives an audio metadata packet, and a header of the audio metadata packet includes a 3D audio field (3D Audio Field) indicating whether or not a 3D audio sample packet is transmitted.

上記の目的を達成すべく、本発明のさらに他の一実施の形態にかかる、データ送信装置は、オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を生成する生成部と、データ受信装置に前記ディスプレイ識別情報を送信する送信部とを備え、前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む。   In order to achieve the above object, a data transmission device according to still another embodiment of the present invention includes a generation unit that generates display identification information including feature information supported by a sink device for audio data, and data A transmission unit that transmits the display identification information to a receiving device, and the display identification information includes a main / auxiliary audio characteristic field that represents information on characteristics of main audio and auxiliary audio supported by the sink device.

また、前記メイン/補助オーディオ特性フィールドは、前記シンク装置がメインオーディオと補助オーディオとの合成を支援するかどうかを表すオーディオミックスフィールド(Audio Mix Field)、前記シンク装置が補助オーディオを支援するかどうかを表す補助オーディオ支援フィールド(Supplemental Audio Support Field)、前記シンク装置が複数の言語からなるオーディオデータを支援するかどうかを表す言語支援フィールド(Language Support Field)、前記シンク装置がマルチビューコンテンツのためのマルチストリームオーディオデータを支援するかどうかを表すマルチビューオーディオ支援フィールド(Multiview Audio Support Field)、前記シンク装置がハンドリングできる最大オーディオストリームの個数を表す最大ストリームカウントフィールド(Maximum Stream Count Field)、及び3Dオーディオディスクリプタの個数を表すオーディオディスクリプタ個数フィールド(Number Of Audio Descriptor Field)のうち、少なくとも一つを含むことができる。   The main / auxiliary audio characteristic field includes an audio mix field (Audio Mix Field) indicating whether the sink device supports synthesis of main audio and auxiliary audio, and whether the sink device supports auxiliary audio. An auxiliary audio support field (Language Audio Support Field) indicating whether or not the sink device supports audio data in a plurality of languages, and the sink device is used for multi-view content. Multi-view audio support field indicating whether to support multi-stream audio data (Multiview Audio Support) Field), a maximum stream count field (Maximum Stream Count Field) indicating the number of maximum audio streams that can be handled by the sink device, and an audio descriptor number field (Number Of Audio Descriptor Field) indicating the number of 3D audio descriptors. One can be included.

また、前記ディスプレイ識別情報は、前記シンク装置が緊急状況放送受信及び処理を支援するかどうかを表す緊急チャネルフィールド(Emergency Channel Field)をさらに含むことができる。   The display identification information may further include an emergency channel field indicating whether the sink device supports emergency situation broadcast reception and processing.

上記の目的を達成すべく、本発明のさらに他の一実施の形態にかかる、データ受信装置は、データ送信装置から、オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を受信する受信部と、前記受信されたディスプレイ識別情報を分析する分析部とを備え、前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む。   In order to achieve the above object, a data receiving apparatus according to still another embodiment of the present invention receives display identification information including feature information supported by a sink apparatus regarding audio data from the data transmitting apparatus. A reception unit; and an analysis unit for analyzing the received display identification information, wherein the display identification information includes a main / auxiliary audio characteristic field representing information on characteristics of main audio and auxiliary audio supported by the sink device. Including.

また、前記メイン/補助オーディオ特性フィールドは、前記シンク装置がメインオーディオと補助オーディオとの合成を支援するかどうかを表すオーディオミックスフィールド(Audio Mix Field)、前記シンク装置が補助オーディオを支援するかどうかを表す補助オーディオ支援フィールド(Supplemental Audio Support Field)、前記シンク装置が複数の言語からなるオーディオデータを支援するかどうかを表す言語支援フィールド(Language Support Field)、前記シンク装置がマルチビューコンテンツのためのマルチストリームオーディオデータを支援するかどうかを表すマルチビューオーディオ支援フィールド(Multiview Audio Support Field)、前記シンク装置がハンドリングできる最大オーディオストリームの個数を表す最大ストリームカウントフィールド(Maximum Stream Count Field)、及び3Dオーディオディスクリプタの個数を表すオーディオディスクリプタ個数フィールド(Number Of Audio Descriptor Field)のうち、少なくとも一つを含むことができる。   The main / auxiliary audio characteristic field includes an audio mix field (Audio Mix Field) indicating whether the sink device supports synthesis of main audio and auxiliary audio, and whether the sink device supports auxiliary audio. An auxiliary audio support field (Language Audio Support Field) indicating whether or not the sink device supports audio data in a plurality of languages, and the sink device is used for multi-view content. Multi-view audio support field indicating whether to support multi-stream audio data (Multiview Audio Support) Field), a maximum stream count field (Maximum Stream Count Field) indicating the number of maximum audio streams that can be handled by the sink device, and an audio descriptor number field (Number Of Audio Descriptor Field) indicating the number of 3D audio descriptors. One can be included.

また、前記ディスプレイ識別情報は、前記シンク装置が緊急状況放送受信及び処理を支援するかどうかを表す緊急チャネルフィールド(Emergency Channel Field)をさらに含むことができる。   The display identification information may further include an emergency channel field indicating whether the sink device supports emergency situation broadcast reception and processing.

上記の目的を達成すべく、本発明のさらに他の一実施の形態にかかる、データ送受信システムは、オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を生成して、データ受信装置に送信するデータ送信装置と、前記データ送信装置から前記ディスプレイ識別情報を受信して分析するデータ受信装置とを備え、前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む。   In order to achieve the above object, a data transmission / reception system according to still another embodiment of the present invention generates display identification information including feature information supported by a sink device with respect to audio data. And a data receiving device for receiving and analyzing the display identification information from the data transmitting device, the display identification information corresponding to characteristics of main audio and auxiliary audio supported by the sink device Contains main / auxiliary audio characteristic fields representing information.

上記の目的を達成すべく、本発明のさらに他の一実施の形態にかかる、データ送信方法は、第1サブパケット及び第2サブパケットを含むパケットを生成するステップと、前記生成されたパケットをデータ受信装置に送信するステップとを含み、前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含む。   In order to achieve the above object, a data transmission method according to still another embodiment of the present invention includes a step of generating a packet including a first subpacket and a second subpacket, and the generated packet. Transmitting to a data receiving device, wherein the first subpacket and the second subpacket include different audio data for the first content.

上記の目的を達成すべく、本発明のさらに他の一実施の形態にかかる、データ受信方法は、データ送信装置から第1サブパケット及び第2サブパケットを含むパケットを受信するステップと、前記受信された第1サブパケット及び前記第2サブパケットをパーシングするステップとを含み、前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含む。   In order to achieve the above object, a data receiving method according to still another embodiment of the present invention includes a step of receiving a packet including a first subpacket and a second subpacket from a data transmitting apparatus, and the reception Parsing the first subpacket and the second subpacket, wherein the first subpacket and the second subpacket include different audio data for the first content.

上記の目的を達成すべく、本発明のさらに他の一実施の形態にかかる、データ送信方法は、オーディオメタデータパケットを生成するステップと、前記生成されたオーディオメタデータパケットをデータ受信装置に送信するステップとを含み、前記生成されたオーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む。   In order to achieve the above object, a data transmission method according to still another embodiment of the present invention includes a step of generating an audio metadata packet, and transmitting the generated audio metadata packet to a data receiving device. And a header of the generated audio metadata packet includes a 3D audio field (3D Audio Field) indicating whether or not a 3D audio sample packet is transmitted.

上記の目的を達成すべく、本発明のさらに他の一実施の形態にかかる、データ受信方法は、データ送信装置からオーディオメタデータパケットを受信するステップと、前記受信されたオーディオメタデータパケットをパーシングするステップとを含み、前記受信されたオーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む。   In order to achieve the above object, a data receiving method according to still another embodiment of the present invention includes a step of receiving an audio metadata packet from a data transmitting device, and parsing the received audio metadata packet. The header of the received audio metadata packet includes a 3D audio field (3D Audio Field) indicating whether or not a 3D audio sample packet is transmitted.

上記の目的を達成すべく、本発明のさらに他の一実施の形態にかかる、データ送信方法は、オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を生成するステップと、データ受信装置に前記ディスプレイ識別情報を送信するステップとを含み、前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む。   In order to achieve the above object, a data transmission method according to still another embodiment of the present invention includes generating display identification information including feature information supported by a sink device for audio data, and receiving data Transmitting the display identification information to a device, wherein the display identification information includes a main / auxiliary audio characteristics field representing information on characteristics of main audio and auxiliary audio supported by the sink device.

上記の目的を達成すべく、本発明の一実施の形態にかかる、データ受信方法は、データ送信装置から、オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を受信するステップと、前記受信されたディスプレイ識別情報を分析するステップとを含み、前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む。   In order to achieve the above object, a data receiving method according to an embodiment of the present invention includes receiving display identification information including feature information supported by a sink device with respect to audio data from a data transmitting device; Analyzing the received display identification information, wherein the display identification information includes a main / auxiliary audio characteristics field representing information on characteristics of main audio and auxiliary audio supported by the sink device.

以上のような本発明の多様な実施の形態によれば、本発明は、ソース装置とシンク装置との間に同じコンテンツに関連した複数のオーディオデータを送受信できるインタフェース規格を提供する。   According to various embodiments of the present invention as described above, the present invention provides an interface standard capable of transmitting and receiving a plurality of audio data related to the same content between a source device and a sink device.

シングルオーディオストリーム及びマルチオーディオストリームを示す図である。It is a figure which shows a single audio stream and a multi audio stream. ソース装置がシンク装置にデュアルウィンドウ及び画面分離に対するマルチオーディオを送信する示す図である。It is a figure which shows the multi audio | voice with respect to a dual apparatus and screen separation for a source apparatus to a sink apparatus. 前記画面分離支援情報を表示するためのシンク装置とソース装置との間のデータ送受信を概括的に示した図である。FIG. 6 is a diagram schematically showing data transmission / reception between a sink device and a source device for displaying the screen separation support information. 前記マルチオーディオサンプルパケットのペイロードが送信される状況を示す図である。FIG. 6 is a diagram illustrating a situation in which a payload of the multi-audio sample packet is transmitted. 3Dオーディオ信号の送信タイミングを示す図である。It is a figure which shows the transmission timing of 3D audio signal. 3Dオーディオ信号の送信タイミングを示す図である。It is a figure which shows the transmission timing of 3D audio signal. 本発明の一実施の形態にかかるデータ送受信システムの構成を示すブロック図である。It is a block diagram which shows the structure of the data transmission / reception system concerning one embodiment of this invention. 本発明の一実施の形態にかかるデータ送信装置の構成を示すブロック図である。It is a block diagram which shows the structure of the data transmitter concerning one embodiment of this invention. 本発明の一実施の形態にかかるデータ受信装置の構成を示すブロック図である。It is a block diagram which shows the structure of the data receiver concerning one embodiment of this invention. 本発明の他の実施の形態にかかるデータ送受信システムの構成を示すブロック図である。It is a block diagram which shows the structure of the data transmission / reception system concerning other embodiment of this invention. 本発明の他の実施の形態にかかるデータ送信装置の構成を示すブロック図である。It is a block diagram which shows the structure of the data transmitter concerning other embodiment of this invention. 本発明の他の実施の形態にかかるデータ受信装置の構成を示すブロック図である。It is a block diagram which shows the structure of the data receiver concerning other embodiment of this invention. 本発明のさらに他の実施の形態にかかるデータ送受信システムの構成を示すブロック図である。It is a block diagram which shows the structure of the data transmission / reception system concerning other embodiment of this invention. 本発明のさらに他の実施の形態にかかるデータ送信装置の構成を示すブロック図である。It is a block diagram which shows the structure of the data transmitter concerning further another embodiment of this invention. 本発明のさらに他の実施の形態にかかるデータ受信装置の構成を示すブロック図である。It is a block diagram which shows the structure of the data receiver concerning further another embodiment of this invention. クアッドビュービデオコンテンツを3Dインターレースフォーマットで送信する場合、多様なデータ送信フォーマットを示す図である。FIG. 6 is a diagram illustrating various data transmission formats when quad-view video content is transmitted in a 3D interlace format. クアッドビュービデオコンテンツを3Dインターレースフォーマットで送信する場合、多様なデータ送信フォーマットを示す図である。FIG. 6 is a diagram illustrating various data transmission formats when quad-view video content is transmitted in a 3D interlace format. クアッドビュービデオコンテンツを3Dインターレースフォーマットで送信する場合、多様なデータ送信フォーマットを示す図である。FIG. 6 is a diagram illustrating various data transmission formats when quad-view video content is transmitted in a 3D interlace format. 本発明の一実施の形態にかかるデータ送信方法のフローチャートである。It is a flowchart of the data transmission method concerning one embodiment of this invention. 本発明の一実施の形態にかかるデータ受信方法のフローチャートである。It is a flowchart of the data reception method concerning one embodiment of this invention. 本発明の他の実施の形態にかかるデータ送信方法のフローチャートである。It is a flowchart of the data transmission method concerning other embodiment of this invention. 本発明の他の実施の形態にかかるデータ受信方法のフローチャートである。It is a flowchart of the data reception method concerning other embodiment of this invention. 本発明のさらに他の実施の形態にかかるデータ送信方法のフローチャートである。It is a flowchart of the data transmission method concerning further another embodiment of this invention. 本発明のさらに他の実施の形態にかかるデータ受信方法のフローチャートである。It is a flowchart of the data reception method concerning further another embodiment of this invention.

以下、本発明の好ましい実施の形態を添付した図面を参照して詳細に説明する。本発明を説明するに当たって、関連した公知の機能又は構成についての具体的な説明が本発明の要旨を不明確にする恐れがあると判断される場合には、その詳細な説明を省略する。そして、後述する用語は、本発明での機能を考慮して定義された用語であり、これは、ユーザ、操作者の意図又は慣例などによって変わりうる。したがって、その定義は、本明細書全般にわたる内容に基づいて行わなければならない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, if it is determined that a specific description of a related known function or configuration may obscure the gist of the present invention, a detailed description thereof will be omitted. The terms described later are terms defined in consideration of the function of the present invention, and this may vary depending on the intention of the user, the operator, or customs. Therefore, the definition must be made based on the contents throughout this specification.

本発明は、本発明の技術的思想と均等な範囲でHDMI(High Definition Multimedia Interface)、MHL(Mobile High−Definition Link)規格のような多様な有線インタフェース送信規格に採用されることができるので、本発明の権利範囲は、これと類似の有線インタフェース送信規格までに及ぼす。   Since the present invention can be adopted in various wired interface transmission standards such as HDMI (High Definition Multimedia Interface) and MHL (Mobile High-Definition Link) standards within the scope equivalent to the technical idea of the present invention. The scope of the present invention extends to a similar wired interface transmission standard.

本明細書は、下記の文献を参照する。   This specification refers to the following documents.

ITU−R BS.2159−4(05/2012)、家庭内多チャンネルサウンド技術と放送アプリケーション(Multi channel sound technology in home and broadcasting applications)
SMPTE、SMPTE 2036−2:2008、「UHDTV−音声特徴とプログラム製作のための音声チャネルマッピング(UHDTV−Audio characteristics and audio channel mapping for program production)」、2008
IEC,IEC 62574 ed 1.0、「音声、ビデオそしてマルチメディアシステム−多チャンネル音声の一般的チャネル割り当て(Audio,video and multimedia systems−General channel assignment of multichannel audio)」、2011年4月7日
ITU-R BS. 2159-4 (05/2012), Multi-channel sound technology in home and broadcasting applications
SMPTE, SMPTE 2036-2: 2008, "UHDTV-Audio channel mapping and audio channel mapping for program production", 2008
IEC, IEC 62574 ed 1.0, "Audio, video and multimedia systems-General channel assignment of multi-channel audio", April 7th, 2011. IEC, IEC 62574 ed 1.0, "Audio, video and multimedia systems-General channel assignment of multichannel audio".

次の表1は、本明細書において使用する用語を簡略に説明している。

Figure 2016513930
Figure 2016513930
Table 1 below briefly explains the terms used in this specification.
Figure 2016513930
Figure 2016513930

図1は、シングルオーディオストリームとマルチオーディオストリームを示す図である。   FIG. 1 is a diagram illustrating a single audio stream and a multi audio stream.

図1(A)に示すように、シングルオーディオストリームは、少なくとも一つのビデオデータに対して複数のオーディオデータが存在し、これらのオーディオデータが一つのシングルストリームとして送信される場合である。シングルストリームでは、すべてのストリームデータが同じパケットストリームIDを共有するようにパケット化される。   As shown in FIG. 1A, a single audio stream is a case where a plurality of audio data exists for at least one video data, and these audio data are transmitted as one single stream. In a single stream, all stream data is packetized so as to share the same packet stream ID.

図1(B)に示すように、マルチオーディオストリームは、多数のシングルAVストリームが送信される場合である。マルチオーディオストリームでは、唯一のパケットストリームIDが各シングルAVストリームに割り当てられる多数のシングル−AVストリーム集合が存在する。多数のシングルAVストリームのビデオデータは、互いに独立である。   As shown in FIG. 1B, the multi-audio stream is a case where a large number of single AV streams are transmitted. In a multi-audio stream, there are a number of single-AV stream sets in which a single packet stream ID is assigned to each single AV stream. The video data of a large number of single AV streams are independent of each other.

マルチオーディオストリームの各オーディオストリームは、最大2個のオーディオチャネルを送信する。そして、シングルオーディオストリームと関連する。例えば、シングルビューモードにおいて各オーディオは、デフォルトビデオストリームに接続され、デュアルビューモードにおいてオーディオは、左側のイメージや右側のイメージ(または両方とも)に接続されることができる。また、次のような一つ以上の補助オーディオオプションを送信できる。すなわち、画面分離タギング(Split−screen tagging)、言語表示(Language indication)、視覚/聴覚障害者のためのオーディオ表示(indication of audio for visually/hearing impaired)がそれである。   Each audio stream of the multi-audio stream transmits a maximum of two audio channels. And associated with a single audio stream. For example, in single view mode, each audio can be connected to a default video stream, and in dual view mode, audio can be connected to the left image and / or the right image. It can also send one or more auxiliary audio options: That is, screen separation tagging (Split-screen tagging), language display (Language indication), audio display for visually impaired / hearing impaired (indication of audio for visible / hearing implied).

画面分離(Split Screen)とは、二つ以上のウィンドウに対してソース装置により互いに異なるオーディオデータがタギングされ識別される視聴オプション(viewing option)を意味する。画面分離は、PIP視聴方式(picture−in−pucture viewing)、クイックプレビュー視聴方式(quick−preview)、マルチスクリーンゲーム(multi−screen game)などで使用される。ここで、ウィンドウとは、シンク装置のスクリーンの一領域上にディスプレイされる、区別されるディスプレイイメージを意味する。   “Split Screen” means a viewing option in which different audio data are tagged and identified by two or more windows with respect to two or more windows. The screen separation is used in a PIP viewing method (picture-in-pureviewing), a quick preview viewing method (quick-preview), a multi-screen game (multi-screen game), and the like. Here, the window means a distinguished display image displayed on one area of the screen of the sink device.

画面分離(またはマルチウィンドウも同じ用語として使用されることができる)は、マルチオーディオと共に使用される選択的な構成になることができる。画面分離モードは、シンク装置で画面が分離される構成を意味し、オーディオストリームをタギングし、特定のウィンドウにマッピングする。   Screen separation (or multi-window can also be used as the same term) can be a selective configuration used with multi-audio. The screen separation mode means a configuration in which the screen is separated by the sink device, and the audio stream is tagged and mapped to a specific window.

図2は、ソース装置がシンク装置にデュアルウィンドウ及び画面分離に対するマルチオーディオを送信する示す図である。   FIG. 2 is a diagram illustrating that the source device transmits multi-audio for dual window and screen separation to the sink device.

図2の(A)は、マルチスクリーンに各々に対するオーディオデータを送信する実施の形態であり、図2の(B)は、クイックプレビュー視聴またはPIP視聴による複数のオーディオデータを送信する実施の形態であり、図2の(C)は、マルチスクリーンゲームによる複数のオーディオデータを送信する実施の形態を示す。シンク装置のユーザは、望みのオーディオを選択して聴取できる。   2A is an embodiment in which audio data for each is transmitted to a multi-screen, and FIG. 2B is an embodiment in which a plurality of audio data is transmitted by quick preview viewing or PIP viewing. FIG. 2C shows an embodiment in which a plurality of audio data according to a multi-screen game is transmitted. The user of the sink device can select and listen to the desired audio.

図3は、前記画面分離支援情報を表示するためのシンク装置とソース装置との間のデータ送受信を概括的に示した図である。   FIG. 3 is a diagram schematically showing data transmission / reception between the sink device and the source device for displaying the screen separation support information.

ソース装置310は、ベンダー−特定インフォフレーム(Vendor−Specific Infoframe)、マルチオーディオサンプルパケット(Multi−Audio Sample Packet)、マルチオーディオメタデータパケット(Multi−Audio Metadata Packet)をシンク装置に送信する。   The source device 310 transmits a vendor-specific info frame, a multi-audio sample packet, and a multi-audio metadata packet to the sink device.

マルチオーディオサンプルパケットは、複数のオーディオストリームを含む。マルチオーディオメタデータパケットは、各オーディオストリームに対する設定を表示する。これは、ビデオストリームと関連し、補助オーディオ情報を運搬できる。ベンダー−特定インフォフレームは、送信されるコンテンツのマルチビュータイプを表示する。具体的な実施の形態については後述する。   The multi audio sample packet includes a plurality of audio streams. The multi-audio metadata packet displays settings for each audio stream. This is associated with the video stream and can carry auxiliary audio information. The vendor-specific info frame displays the multi-view type of the content to be transmitted. Specific embodiments will be described later.

シンク装置320は、拡張されたデバイス性能レジスタ(Extended Device Capability Register)をソース装置に送信して、シンク装置が支援するマルチオーディオモード情報を知らせる。具体的な実施の形態については後述する。   The sink device 320 transmits an extended device capability register (Extended Device Capability Register) to the source device to inform the multi-audio mode information supported by the sink device. Specific embodiments will be described later.

一方、マルチオーディオは、補助オーディオトラック(例えば、多数言語、視覚的障害のためのオーディオ説明、または聴覚的障害のためのクリーンオーディオ)の送信を支援する。この場合に、最大16個のオーディオストリームが同時に送信されることができる。これについても具体的な説明は後述する。   Multi-audio, on the other hand, supports the transmission of auxiliary audio tracks (eg, multiple languages, audio descriptions for visual impairment, or clean audio for auditory impairment). In this case, a maximum of 16 audio streams can be transmitted simultaneously. This will be described in detail later.

TMDSシグナリングとエンコーディング
データプラットホームパケット

Figure 2016513930
TMDS signaling and encoding Data platform packet
Figure 2016513930

3Dオーディオサンプルパケット
3Dオーディオは、スピーカーが3D空間上において3Dオーディオ規格(e.g.10.2ch、22.2ch、30.2ch等)別に決まった位置に配置されることのできるオーディオとして定義される。3Dオーディオサンプルパケットは、9個から32個のオーディオチャネルを有する一つのオーディオサンプルから構成されている。
3D audio sample packet 3D audio is defined as audio in which speakers can be placed in a 3D space at a fixed position according to 3D audio standards (eg 10.2 ch, 22.2 ch, 30.2 ch, etc.). The The 3D audio sample packet is composed of one audio sample having 9 to 32 audio channels.

3Dオーディオストリームは、32オーディオチャネル(またはそれ以上)までを含み、データ島区間で連続的なパケットを介して送信される。各パケットは、8オーディオチャネルまで含む。サブパケットの構成は、シーケンス番号とヘッダにあるサンプルプレゼントビット(sample_present bits)により判断される。   The 3D audio stream includes up to 32 audio channels (or more) and is transmitted via continuous packets in the data island period. Each packet contains up to 8 audio channels. The configuration of the subpacket is determined by the sequence number and the sample present bit (sample_present bits) in the header.

シーケンス番号フィールド(sequence_number):現在パケットの順序を表す。多数3Dオーディオサンプルパケットがシングル3Dオーディオサンプルを含むから、このフィールドは、パケット順序を正確に識別するために必要である。   Sequence number field (sequence_number): Indicates the order of the current packet. Since multiple 3D audio sample packets contain a single 3D audio sample, this field is necessary to accurately identify the packet order.

他のヘッダフィールドとサブパケット構造は、MHL2.0明細書において表されるオーディオサンプルパケットと一致する。

Figure 2016513930
Other header fields and subpacket structures are consistent with the audio sample packet represented in the MHL 2.0 specification.
Figure 2016513930

マルチオーディオサンプルパケット
マルチオーディオサンプルパケットは、各オーディオサンプルが独立的にオーディオストリームと関連した4個のオーディオサンプルを含むことができる。ソース装置が4個以上の独立的オーディオストリームを同時に送信するとき、こういう連続的なオーディオストリームは、続くマルチオーディオサンプルパケットシリーズにより送信される。パケットヘッダで定義されたシーケンス番号(sequence_number)は、各々のマルチオーディオサンプルパケットを識別し、パケットの整列内で現在パケットの順序を示す。サブパケットの構成は、シーケンス番号とヘッダにあるサンプルプレゼントビット(sample present bits)により判断される。これについては、マルチオーディオデータパケット化で詳細に説明される。
Multi-Audio Sample Packet A multi-audio sample packet can include four audio samples, where each audio sample is independently associated with an audio stream. When the source device transmits four or more independent audio streams simultaneously, such a continuous audio stream is transmitted by the following multi-audio sample packet series. The sequence number (sequence_number) defined in the packet header identifies each multi-audio sample packet and indicates the current packet order within the packet alignment. The configuration of the subpacket is determined by the sequence number and sample present bits in the header. This is described in detail in Multi-Audio Data Packetization.

各々のサブパケット(またはオーディオストリーム)のために、マルチオーディオメタデータパケット(Multi−Audio Metadata Packet)にあるディスクリプタフィールド(descriptor field)は、ビューモード(すなわち、シングル−ビューまたはマルチ−ビュー)、及び選択的情報(例えば、画面分離タギング、言語コード、視覚的障害のためのオーディオ等)を説明する。これらは、後で詳細に説明される。   For each subpacket (or audio stream), the descriptor field in the multi-audio metadata packet (Descriptor field) is the view mode (ie single-view or multi-view), and Selective information (eg, screen separation tagging, language codes, audio for visual impairment, etc.) is described. These will be described in detail later.

シーケンス番号フィールド(sequence_number):ソース装置からシンク装置に送信するための4個以上のオーディオストリームがあるとき、現在マルチオーディオサンプルパケットのシーケンス番号を表す。仮に、このフィールドが0に設定されると、そのパケットは、該当サブパケットにおいて各々第1番目の4個のオーディオストリームを含むことができる。仮に、このフィールドが1に設定されると、そのパケットは、該当サブパケットにおいて各々第2番目の4個のオーディオストリームセットを含むことができる。類似の方法で、パケットは、このフィールドが2または3に設定されるとき、第3番目または第4番目の4個のオーディオストリームセットを各々含む。シーケンス番号が0であるサブパケット0で処理されるオーディオストリームは、デフォルト(default)オーディオストリームとして指定される。   Sequence number field (sequence_number): When there are four or more audio streams to be transmitted from the source device to the sink device, it represents the sequence number of the current multi-audio sample packet. If this field is set to 0, the packet can include the first four audio streams in the corresponding subpacket. If this field is set to 1, the packet can include the second four audio stream sets in the corresponding subpacket. In a similar manner, the packet includes a third or fourth set of four audio streams, respectively, when this field is set to 2 or 3. An audio stream processed by subpacket 0 having a sequence number of 0 is designated as a default audio stream.

ストリームプレゼントフィールド(stream_presnt.spX):サブパケットXがストリームXのオーディオサンプルを含んでいるかどうかを示す。   Stream present field (stream_presnt.spX): indicates whether or not the subpacket X includes an audio sample of the stream X.

ストリームフラットフィールド(stream_flat.spX):サブパケットXがストリームXの「フラットライン(flatline)」サンプルを表しているかどうかを示す。stream_present.spXが設定されるときだけ有効である。   Stream flat field (stream_flat.spX): indicates whether subpacket X represents a “flatline” sample of stream X. stream_present. Valid only when spX is set.

他のヘッダフィールドとサブパケット構造は、MHL2.0スペックにおいて表されるオーディオサンプルパケットと一致する。

Figure 2016513930
Other header fields and subpacket structures are consistent with the audio sample packet represented in the MHL 2.0 specification.
Figure 2016513930

図4は、前記マルチオーディオサンプルパケットのペイロードが送信される状況を示す図である。   FIG. 4 is a diagram illustrating a situation where the payload of the multi-audio sample packet is transmitted.

図4に示すように、4個のマルチオーディオサンプルパケットが送信される場合、16個のオーディオストリームを運搬できる。シーケンス番号は、2ビットからなっているので、最大16個のオーディオストリームが運搬されることができる。   As shown in FIG. 4, when four multi-audio sample packets are transmitted, 16 audio streams can be carried. Since the sequence number consists of 2 bits, a maximum of 16 audio streams can be carried.

3Dオーディオメタデータパケット
アクティブ(active)3Dオーディオデータを説明する補助データ(Ancillary data)は、3Dオーディオメタデータパケットを使用して送信される。ソース装置が3Dオーディオサンプルパケットを送信できる場合、ソース装置は、常に正確な3Dオーディオメタデータパケットを、少なくとも二つのビデオフィールドごとに一回送信する。
3D Audio Metadata Packet Ancillary data that describes active 3D audio data is transmitted using 3D audio metadata packets. If the source device can send 3D audio sample packets, the source device always sends the correct 3D audio metadata packet once every at least two video fields.

次は、3Dオーディオメタデータパケットを示す。

Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
The following shows a 3D audio metadata packet.
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930

マルチオーディオメタデータパケット(Multi−Audio Metadata Packet)
アクティブマルチオーディオストリームを説明する補助データ(supplementary data)は、マルチオーディオメタデータパケットを使用して送信される。このパケットは、ビュー種類とマルチオーディオサンプルパケットから移される各々のオーディオストリームのための補助的オーディオ選択事項を説明するために使用される。
Multi-audio metadata packet (Multi-Audio Metadata Packet)
Supplementary data describing the active multi-audio stream is transmitted using multi-audio metadata packets. This packet is used to describe the auxiliary audio selection for each audio stream transferred from the view type and multi-audio sample packet.

ソース装置がマルチオーディオサンプルパケットを送信できる場合、ソース装置は、常に正確なマルチストリームオーディオメタデータパケットを、少なくとも二つのビデオフィールド当たりの一回ずつ送信する。   If the source device can send multi-audio sample packets, the source device always sends the correct multi-stream audio metadata packet once per at least two video fields.

次は、マルチオーディオメタデータパケットを示す。

Figure 2016513930
The following shows a multi-audio metadata packet.
Figure 2016513930

ビュー種類フィールド(MA_View_Type):シングルビューまたはマルチビューのようなマルチオーディオストリームの関連したビューモードを示す。下記の表を参考にしてほしい。   View type field (MA_View_Type): indicates the associated view mode of a multi-audio stream such as single view or multi-view. Please refer to the table below.

シーケンス番号フィールド(Sequence_Number):パケット、または現在マルチオーディオメタデータパケットのシーケンス番号を表す。このフィールドは、最高4個の互いに異なるマルチオーディオメタデータパケットを識別するために使用される。このフィールドは、各マルチオーディオメタデータパケットを同じシーケンス番号を有するマルチオーディオサンプルパケットに接続する。   Sequence number field (Sequence_Number): represents the sequence number of the packet or the current multi-audio metadata packet. This field is used to identify up to four different multi-audio metadata packets. This field connects each multi-audio metadata packet to a multi-audio sample packet having the same sequence number.

オーディオストリーム個数フィールド(Num_Audio_Streams:マルチオーディオサンプルパケットにより送信されたオーディオストリームの総個数を表す。   Audio stream number field (Num_Audio_Streams) This field indicates the total number of audio streams transmitted by multi-audio sample packets.

画面分離有効フィールド(SC_Valid):仮に、1に設定される場合、画面分離タギングは支援を受け、画面分離構成フィールドは、次の7ビットで詳細化される。仮に、0に設定される場合、画面分離タギングは支援を受けないか、または詳細化されず、次の7ビットは、他の使用のために残される。   Screen separation valid field (SC_Valid): If set to 1, screen separation tagging is supported and the screen separation configuration field is detailed in the next 7 bits. If set to 0, screen separation tagging is not supported or refined, and the next 7 bits are left for other uses.

画面分離種類フィールド(Split_Screen_Config):現在ディスクリプタにより表されるオーディオストリームに関連した画面分離種類を示す。選択可能な画面分離種類は、下記の表13に羅列されている。このフィールドは、SC_有効=1のときだけ有効である。   Screen separation type field (Split_Screen_Config): Indicates the screen separation type associated with the audio stream currently represented by the descriptor. Selectable screen separation types are listed in Table 13 below. This field is valid only when SC_valid = 1.

マルチオーディオディスクリプタフィールド(MA_Descriptor_X):該当マルチオーディオサンプルパケットのサブパケットXにより送信されるオーディオストリームの特性を表す。表13は、マルチオーディオディスクリプタの詳細な構造を示す。

Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Multi-audio descriptor field (MA_Descriptor_X): Indicates the characteristics of the audio stream transmitted by the subpacket X of the corresponding multi-audio sample packet. Table 13 shows the detailed structure of the multi-audio descriptor.
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930

以下記の表は、マルチオーディオディスクリプタを示す。

Figure 2016513930
The table below shows multi-audio descriptors.
Figure 2016513930

画面分離タグフィールド(Split_Screen_Tag):現在マルチオーディオディスクリプタにより表されるオーディオストリームに関連した特定ウィンドウ(分離画面構成により定義されたように)を表す。詳細な説明は、下記の表16に表される。このフィールドは、SC_有効=1のときだけ有効で、それともシンク装置は、このフィールドを無視する。   Screen separation tag field (Split_Screen_Tag): Represents a specific window (as defined by the separation screen configuration) associated with the audio stream currently represented by the multi-audio descriptor. A detailed description is presented in Table 16 below. This field is valid only when SC_valid = 1, or the sink device ignores this field.

関連ビュー識別フィールド(Associated_View_ID):現在マルチオーディオディスクリプタにより表されるオーディオストリームに関連した特定ビューを表す。このフィールドの意味は、ビュー種類フィールド(MA_View_Type)の値に拠る。詳細な説明は、下記の表15に示す。   Associated view identification field (Associated_View_ID): represents a specific view associated with the audio stream currently represented by the multi-audio descriptor. The meaning of this field depends on the value of the view type field (MA_View_Type). A detailed description is given in Table 15 below.

有効言語コードフィールド(LC_present):仮に、このフィールドが1に設定されると、現在ディスクリプタは、次のバイトにおいて有効な言語コードフィールド(Language_Code)を含む。   Valid language code field (LC_present): If this field is set to 1, the current descriptor includes a valid language code field (Language_Code) in the next byte.

ミックスオーディオフィールド(Mixed_Audio):仮に、このフィールドが1に設定されると、該当オーディオストリームは、補助オーディオ種類フィールド(Suppl_Audio_Type)により表れるように、一般オーディオと補助オーディオの予めミックスされたストリームを含む。   Mixed audio field (Mixed_Audio): If this field is set to 1, the corresponding audio stream includes a pre-mixed stream of general audio and auxiliary audio as shown by the auxiliary audio type field (Suppl_Audio_Type).

SATプレゼントフィールド(SAT_present):仮に、このフィールドが1に設定されると、現在ディスクリプタは、次の4ビットにおいて有効な補助オーディオ種類フィールド(Suppl_Audio_Type)を含む。   SAT present field (SAT_present): If this field is set to 1, the current descriptor includes an auxiliary audio type field (Suppl_Audio_Type) valid in the next 4 bits.

補助オーディオ種類フィールド(Suppl_Audio_Type):該当オーディオストリームのための補助オーディオの種類を表す。詳細な説明は、表17を参考してほしい。このフィールドは、SATプレゼントフィールド(SAT_present)=1であるときだけ有効で、それとも、シンク装置は、このフィールドを無視する。   Auxiliary audio type field (Suppl_Audio_Type): indicates the type of auxiliary audio for the corresponding audio stream. See Table 17 for a detailed explanation. This field is valid only when the SAT present field (SAT_present) = 1, or the sink device ignores this field.

言語コードフィールド(Language_Code):該当オーディオストリームのISO639と定義された言語コードを表す。このフィールドは、有効言語コードフィールド(LC_present)が1に設定されるときだけ有効で、それともシンク装置は、このフィールドを無視する。

Figure 2016513930
Figure 2016513930
Figure 2016513930
Language code field (Language_Code): A language code defined as ISO 639 of the corresponding audio stream. This field is valid only when the valid language code field (LC_present) is set to 1, or the sink device ignores this field.
Figure 2016513930
Figure 2016513930
Figure 2016513930

アクティブマルチオーディオモードインジケーター(Active Multi-Audio Mode Indicator)
ソース装置は、シンク装置に、送信される正確なビューモードを表すためにVendor−Specific Infoframe(VSIF)を使用する。VSIFは、表18にて示されるように構造化される。

Figure 2016513930
Active multi-audio mode indicator
The source device uses Vendor-Specific Infoframe (VSIF) to represent the exact view mode transmitted to the sink device. The VSIF is structured as shown in Table 18.
Figure 2016513930

MHLマルチビューフィールド(MHL_MULTI_VIEW):どんなマルチビューモードが送信されるかを表す。詳細な説明は、表19に示す。

Figure 2016513930
MHL multi-view field (MHL_MULTI_VIEW): indicates what multi-view mode is transmitted. Detailed description is shown in Table 19.
Figure 2016513930

ビデオ
3D支援のための3Dビデオディスクリプタ

Figure 2016513930
Video 3D video descriptor for 3D support
Figure 2016513930

各々の支援される3Dビデオモードは、一つの3Dビデオディスクリプタで表される。   Each supported 3D video mode is represented by one 3D video descriptor.

MV_SUPP:仮に「1」に設定されると、装置は、マルチビュービデオストリーミングのための3Dビデオフォーマットを使用して支援する。   MV_SUPP: If set to “1”, the device supports using 3D video format for multi-view video streaming.

オーディオ
チャネル/スピーカー割り当て
シンク装置が3Dオーディオを受信する能力がある場合に、表38から表40に説明された3Dチャネルスピーカー割り当てディスクリプタは、付着されたスピーカーの構成を表すために使用される。ソース装置から送信される3Dオーディオのための現在スピーカー割り当ての指標が3Dオーディオメタデータパケットの3D CAフィールドで取り扱われる。3D CAフィールドの詳細な説明は、表27から表29を参考にする。
Audio Channel / Speaker Allocation When the sink device is capable of receiving 3D audio, the 3D channel speaker allocation descriptors described in Tables 38 through 40 are used to represent the configuration of attached speakers. An indication of the current speaker assignment for 3D audio transmitted from the source device is handled in the 3D CA field of the 3D audio metadata packet. Refer to Table 27 to Table 29 for a detailed description of the 3D CA field.

3Dオーディオデータパケット化(3D Audio Data Packetization)
3Dオーディオサンプルパケットの各サブパケットは、0または一つのIEC 60958フレームを含む。仮に、ソース装置が3Dオーディオストリームをダウンミックスする必要があり、そのダウンミックスされたオーディオストリームがまた3Dオーディオストリームであるとき、それらは、3Dオーディオサンプルパケットを使用して処理される。仮に、シンク装置が3Dオーディオ特徴を支援しない場合、ソース装置は、3Dオーディオメタデータパケットとともに3Dオーディオサンプルパケットを送信しない。
3D Audio Data Packetization
Each subpacket of the 3D audio sample packet includes zero or one IEC 60958 frame. If the source device needs to downmix the 3D audio stream and the downmixed audio stream is also a 3D audio stream, they are processed using 3D audio sample packets. If the sink device does not support 3D audio features, the source device will not send a 3D audio sample packet with the 3D audio metadata packet.

チャネルの数に依存して、他のサブパケットレイアウトの数が存在する。下記の表21から表23は、12、24、または32チャネルのそれぞれを送信する時における3Dオーディオパケットレイアウトを示す。

Figure 2016513930
Figure 2016513930
Figure 2016513930
Depending on the number of channels, there are other numbers of subpacket layouts. Tables 21 through 23 below show the 3D audio packet layout when transmitting each of 12, 24, or 32 channels.
Figure 2016513930
Figure 2016513930
Figure 2016513930

各々のサブパケットのための一つの、3Dオーディオサンプルパケットヘッダに4個のサンプルプレゼントビット(Sample_present bit)がある。各々は、一つのサブパケットが3Dオーディオサンプルを含むということを表す。付け加えて、サンプルにより代表される時間期間の間にソース装置で利用可能である有用なオーディオデータがない場合に、設定される4個のサンプルフラット(sample_flat.spX)ビットがある。これは、サンプル比率の変化または一時的なストリーム妨害の間に発生できる。   There are four sample present bits (Sample_present bit) in one 3D audio sample packet header for each subpacket. Each represents that one subpacket contains 3D audio samples. In addition, there are four sample flat (sample_flat.spX) bits that are set when there is no useful audio data available at the source device during the time period represented by the samples. This can occur during sample ratio changes or temporary stream interruptions.

続く3Dオーディオサンプルパケットは、L−PCMオーディオ(すなわち、5から16 IEC 60958フレーム)の9からで32個の間のチャネルを含む一つの3Dオーディオサンプルを処理するように使用されることができる。   Subsequent 3D audio sample packets can be used to process one 3D audio sample containing between 9 and 32 channels of L-PCM audio (ie, 5 to 16 IEC 60958 frames).

3Dオーディオサンプルの第1番目のパケットは、8個のオーディオチャネルでぎっしり積まれており、0に設定されたシーケンス番号フィールドを有する。シーケンス番号は、同じ3Dオーディオサンプル内で各追加パケットに対して一つずつ増加する。最後のパケットは、3Dオーディオサンプルの全体チャネル数に依存する8個またはそれより少ないオーディオチャネル数を含む。   The first packet of 3D audio samples is packed with 8 audio channels and has a sequence number field set to zero. The sequence number is incremented by 1 for each additional packet within the same 3D audio sample. The last packet contains 8 or fewer audio channels depending on the total number of channels in the 3D audio sample.

3Dオーディオサンプルパケットのためのただ5個の有効なサンプルプレゼント(sample_present)ビットがある。

Figure 2016513930
There are only 5 valid sample present (sample_present) bits for 3D audio sample packets.
Figure 2016513930

図5及び図6は、3Dオーディオ信号の送信タイミングを示す図である。   5 and 6 are diagrams illustrating the transmission timing of the 3D audio signal.

図5と図6において水平ブランク区間(horizontal Blanking Interval)において3個の8チャネル2Dオーディオ信号サンプルを送信することが分かる。24チャネルの3Dオーディオ信号は、同じ期間中に一つのサンプルが送信される。   5 and 6, it is understood that three 8-channel 2D audio signal samples are transmitted in a horizontal blanking interval. In the 24-channel 3D audio signal, one sample is transmitted during the same period.

マルチオーディオデータパケット化(Multi-Audio Data Packetization)
MHLは、MHLソース装置がシングル−AVストリーミングのためにオーディオストリームを同時に送信するようにする。多数オーディオストリームは、シングルビューまたはマルチビュービデオストリーミング(例えば、ビューごとに異なるオーディオを有するデュアルビューゲーミング)のうちの一つと関連する。補助オーディオモードは、画面分離タギング(すなわち、画面の他の部分がタグされ、それ自身のオーディオストリームと関連する)、言語コード、または視覚的/聴覚的障害者のためのオーディオを表すことができる。各々のオーディオストリームは、一つのビューモードと関連し、最大2個のオーディオチャネルを含む。
Multi-Audio Data Packetization
MHL allows the MHL source device to transmit audio streams simultaneously for single-AV streaming. Multiple audio streams are associated with one of single-view or multi-view video streaming (eg, dual-view gaming with different audio for each view). Auxiliary audio mode can represent screen separation tagging (ie, other parts of the screen are tagged and associated with its own audio stream), language code, or audio for visually / audibly impaired persons . Each audio stream is associated with one view mode and includes up to two audio channels.

マルチストリームオーディオサンプルパケットの各々のサブパケットは、0または一つのIEC60958で定義されたIEC 60958またはIEC61937「ブロック」の「フレーム」を含むことができる。   Each subpacket of a multi-stream audio sample packet may contain a “frame” of IEC 60958 or IEC 61937 “blocks” defined by zero or one IEC 60958.

送信されるための4個以上のオーディオストリームがあるとき、二つまたはそれ以上の連続するマルチオーディオサンプルパケットは、多数のオーディオストリームを送信するために使用される。パケット整列内の各パケットの順序は、シーケンス番号フィールドにより識別される。MHLソース装置は、シングルAVストリーム内で最大16個の独立オーディオストリームを同時に送信できる。   When there are four or more audio streams to be transmitted, two or more consecutive multi-audio sample packets are used to transmit multiple audio streams. The order of each packet within the packet alignment is identified by a sequence number field. The MHL source device can simultaneously transmit a maximum of 16 independent audio streams within a single AV stream.

表25と表26は、MHLソース装置がシングルビュービデオストリーミングで4個のオーディオストリームを送信するときにおいて、マルチオーディオサンプルパケットとマルチオーディオメタデータパケットレイアウトの例を示す。マルチオーディオメタデータパケットは、各々のオーディオストリームの特徴(補助情報、言語)を説明する。   Tables 25 and 26 show examples of multi-audio sample packets and multi-audio metadata packet layouts when the MHL source device transmits four audio streams by single-view video streaming. The multi-audio metadata packet describes the characteristics (auxiliary information, language) of each audio stream.

表27と表28は、MHLソース装置がデュアルビュービデオストリーミングで8個のオーディオストリームを送信するときにおいて、マルチオーディオサンプルパケットとマルチオーディオメタデータパケットレイアウトの例を示す。マルチオーディオメタデータパケットは、各々のオーディオストリームの特徴(関連ビュー、補助情報、言語)を説明する。   Tables 27 and 28 show examples of multi-audio sample packets and multi-audio metadata packet layouts when the MHL source device transmits eight audio streams in dual view video streaming. The multi-audio metadata packet describes the characteristics (relevant view, auxiliary information, language) of each audio stream.

表29と表30は、MHLソース装置がシングルビュービデオストリーミングを可能にする画面分離タギングオプションを有して6個のオーディオストリームを送信するときにおいて、マルチオーディオサンプルパケットとマルチオーディオメタデータパケットレイアウトの例を示す。

Figure 2016513930
Figure 2016513930
Tables 29 and 30 show the multi-audio sample packet and multi-audio metadata packet layout when the MHL source device transmits six audio streams with a screen separation tagging option that enables single-view video streaming. An example is shown.
Figure 2016513930
Figure 2016513930

HIのためのオーディオ:聴覚的障害のためのオーディオストリーム
VIのためのオーディオ:視覚的障害のためのオーディオストリーム

Figure 2016513930
Figure 2016513930
Audio for HI: Audio stream for hearing impairments Audio for VI: Audio stream for visual impairments
Figure 2016513930
Figure 2016513930

HIのためのオーディオ:聴覚的障害のためのオーディオストリーム
VIのためのオーディオ:視覚的障害のためのオーディオストリーム

Figure 2016513930
Figure 2016513930
Audio for HI: Audio stream for hearing impairments Audio for VI: Audio stream for visual impairments
Figure 2016513930
Figure 2016513930

HIのためのオーディオ:聴覚的障害のためのオーディオストリーム
VIのためのオーディオ:視覚的障害のためのオーディオストリーム
Audio for HI: Audio stream for hearing impairments Audio for VI: Audio stream for visual impairments

3Dオーディオメタデータパケット化
アクティブ3Dオーディオストリームが送信されるごとに、正確な3Dオーディオメタデータパケットが少なくとも二つのビデオフィールドごとに一回送信される。
3D Audio Metadata Packetization Each time an active 3D audio stream is transmitted, an accurate 3D audio metadata packet is transmitted once every at least two video fields.

新しい3Dオーディオストリームが始まる際、または3Dオーディオメタデータパケットとオーディオインフォフレームにより表すことのできる3Dオーディオストリームに変化がある際、修正された正確な3Dオーディオメタデータパケットは、初めて影響を受けたノンサイレント(non−silent)オーディオサンプルに従う一つのビデオフレームの以前に送信される。優先的に、これは、初めて影響を受けたオーディオサンプルが送信される直前に発生する。   When a new 3D audio stream starts, or when there is a change in the 3D audio stream that can be represented by the 3D audio metadata packet and the audio info frame, the modified accurate 3D audio metadata packet is not affected for the first time. Sent before one video frame following non-silent audio samples. Preferentially, this occurs just before the first affected audio sample is transmitted.

3Dオーディオメタデータパケット送信は、水平的/垂直的ブラキング区間を含むデータプラットホーム区間以内でいつでも発生できる。   The 3D audio metadata packet transmission can occur at any time within the data platform period including the horizontal / vertical blacking period.

3Dオーディオがストリーミングされるとき、MHLシンク装置は、オーディオインフォフレームでCCとCAフィールドを無視し、その代りに3Dオーディオメタデータパケットで3D_CCと3D_CAを参考にする。   When 3D audio is streamed, the MHL sink device ignores the CC and CA fields in the audio info frame, and instead refers to 3D_CC and 3D_CA in the 3D audio metadata packet.

マルチオーディオメタデータパケット化
アクティブマルチ−オーディオストリームが送信されるごとに、正確なマルチ−オーディオメタデータパケットが少なくとも二つビデオフィールドごとに一回送信される。
Multi-Audio Metadata Packetization Each time an active multi-audio stream is transmitted, an accurate multi-audio metadata packet is transmitted once every at least two video fields.

新しいマルチ−オーディオストリームが始まるとき、またはマルチ−オーディオメタデータパケットとオーディオインフォフレームにより表すことのできるマルチ−オーディオストリームに変化があるとき、修正された正確なマルチ−オーディオメタデータパケットは、初めて影響を受けたノンサイレント(non−silent)オーディオサンプルに従う一つのビデオフレームの以前に送信される。優先的に、これは、初めて影響を受けたオーディオサンプルが送信される直前に発生する。   When a new multi-audio stream starts or when there is a change in the multi-audio stream that can be represented by the multi-audio metadata packet and the audio infoframe, the modified accurate multi-audio metadata packet is not affected for the first time. Transmitted before a video frame according to the received non-silent audio samples. Preferentially, this occurs just before the first affected audio sample is transmitted.

マルチ−オーディオメタデータパケット送信は、水平的/垂直的ブラキング区間を含むデータプラットホーム区間以内でいつでも発生できる。   Multi-audio metadata packet transmissions can occur at any time within a data platform period including horizontal / vertical blacking periods.

3D/マルチ−オーディオ支援のためのWRITE_BURST使用
3Dオーディオモードに対する支援は、表30と表31に示したように、フォーマットされた一連のWRITE_BURST移動を使用して示す。

Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
太い文字は、10.2チャネルと関連した指定スピーカーを表す。
Figure 2016513930
太い文字は、22.2チャネルと関連した指定スピーカーを表す
Figure 2016513930
太い文字は、30.2チャネルと関連した指定スピーカーを表す
Figure 2016513930
WRITE_BURST Use for 3D / Multi-Audio Support Support for 3D audio mode is shown using a series of formatted WRITE_BURST moves, as shown in Table 30 and Table 31.
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
Figure 2016513930
The bold text represents the designated speaker associated with the 10.2 channel.
Figure 2016513930
The bold text represents the designated speaker associated with the 22.2 channel
Figure 2016513930
The bold text represents the designated speaker associated with the 30.2 channel
Figure 2016513930

リンク制御バス(Link Control Bus)
デバイスレジスタ変更割込み(Device Register Change Interrupt)

Figure 2016513930
Link control bus (Link Control Bus)
Device register change interrupt (Device Register Change Interrupt)
Figure 2016513930

3D_AUD_REQは、MHLシンク装置から3Dオーディオ支援情報を要請するために、MHLソース装置により使用される。MHLスペック6.14参照。   The 3D_AUD_REQ is used by the MHL source device to request 3D audio support information from the MHL sink device. See MHL spec 6.14.

Burst_ID Code

Figure 2016513930
Burst_ID Code
Figure 2016513930

3D_ADと3D_CSADは、オーディオ延長の支援を表すことにおいて、MHLシンク装置により使用される。MHLスペック7.XXを参照。   3D_AD and 3D_CSAD are used by the MHL sink device in representing support for audio extension. MHL spec 7. See XX.

制御と構成(Control and Configuration)
拡張されたデバイス性能レジスタ(Extended Device Capability Register)
シンク装置は、ソース装置に拡張されたデバイス性能レジスタを提供できる。換言すれば、ソース装置は、シンク装置の拡張されたデバイス性能レジスタを読み出すことができる。
Control and Configuration (Control and Configuration)
Extended Device Capability Register (Extended Device Capability Register)
The sink device can provide extended device performance registers to the source device. In other words, the source device can read the extended device performance register of the sink device.

下記の表のように、MHLスペックで拡張されたデバイス性能レジスタのアドレス0x85を、シンク装置が支援するマルチオーディオモードを表すのに使用することができる。

Figure 2016513930
As shown in the table below, the device performance register address 0x85 extended with the MHL specification can be used to represent the multi-audio mode supported by the sink device.
Figure 2016513930

マルチオーディオモード(Multi−Audio Mode)
各シンク装置は、支援する特定マルチオーディオモードを登録するマルチオーディオモード(MULTI_AUD_MODE)に表示できる。
Multi audio mode (Multi-Audio Mode)
Each sink device can display a multi-audio mode (MULTI_AUD_MODE) in which a specific multi-audio mode to be supported is registered.

マルチオーディオモードレジスタは、シンク装置が画面分離と関連したマルチオーディオ受信及び処理を支援するかどうかを表す画面分離オーディオフィールド(Split Screen Audio Field)を含む。

Figure 2016513930
The multi-audio mode register includes a split screen audio field that indicates whether the sink device supports multi-audio reception and processing related to the split screen.
Figure 2016513930

装置がマルチビュービデオストリーミングを支援する能力がない場合、このフィールドは0に設定される。   If the device is not capable of supporting multi-view video streaming, this field is set to zero.

マルチストリームオーディオ(Multi−StreamAudio)
以下、本発明の多様な実施の形態にかかるマルチストリームオーディオを説明する。以下で説明するマルチストリームオーディオ送信スペックは、HDMI、MHLを含む多様な有無線送信インタフェースで適用されることができる。
Multi-stream audio (Multi-StreamAudio)
Hereinafter, multi-stream audio according to various embodiments of the present invention will be described. The multi-stream audio transmission specifications described below can be applied to various wired / wireless transmission interfaces including HDMI and MHL.

本発明のソース装置は、同時に4個のオーディオストリームを送信できる。マルチストリームオーディオサンプルパケット(Multi−stream Audio Sample Packet)に対して、すべてのオーディオストリームは、一つのオーディオインフォフレーム(Infoframe)を共有する。   The source device of the present invention can transmit four audio streams simultaneously. For a multi-stream audio sample packet, all the audio streams share one audio info frame (Infoframe).

本発明の多様な実施の形態にかかる有線インタフェースは、シングルビュービデオストリーミングに対する支援(例えば、多数の言語(multi−lingual)を支援するか、または視覚/聴覚障害者のためのオーディオ等)を追加できる。これは、オーディオメタデータパケット(Audio Metadata Packet)を修正するか、またはHDMIオーディオデータブロック(HDMI Audio Data Block)を修正して可能である。   Wired interfaces according to various embodiments of the present invention add support for single-view video streaming (eg, support multiple-lingual or audio for visually / deaf persons) it can. This can be done by modifying the audio metadata packet (Audio Metadata Packet) or by modifying the HDMI audio data block (HDMI Audio Data Block).

例えば、下記の表46のように、マルチストリームオーディオは、多数の言語を支援し、オーディオは、2チャネルで支援されることができる。

Figure 2016513930
For example, as shown in Table 46 below, multi-stream audio can support multiple languages and audio can be supported in two channels.
Figure 2016513930

シナリオ
下記の表は、可能なシナリオを示す。

Figure 2016513930
Scenarios The table below shows possible scenarios.
Figure 2016513930

4個のサブパケットを有するマルチストリームオーディオサンプルパケットの場合、
1)シングルビューのためのオーディオディスクリプション(audio description)と共にシングルTVプログラムが送信される場合、ストリーム0は、ノーマル(normal)オーディオ信号を含み、ストリーム1は、視覚障害者のためのオーディオディスクリプション信号を含むことができる。
For multi-stream audio sample packets with 4 subpackets:
1) When a single TV program is transmitted with an audio description for a single view, stream 0 contains a normal audio signal and stream 1 is an audio description for the visually impaired A signal can be included.

2)前記シングルビューで2個国語を支援する場合、支援される言語からなるオーディオ信号ストリーム2個と、各々に対応するオーディオディスクリプションが共に送信される。例えば、英語と韓国語とが支援される場合、ストリーム0は、韓国語ノーマルオーディオ信号、ストリーム1は、視覚障害者のための韓国語オーディオディスクリプション信号、ストリーム2は、英語ノーマルオーディオ信号、ストリーム3は、視覚障害者のための英語オーディオディスクリプション信号をそれぞれ含むことができる。   2) When supporting two languages in the single view, two audio signal streams composed of the supported languages and an audio description corresponding to each of them are transmitted together. For example, when English and Korean are supported, stream 0 is a Korean normal audio signal, stream 1 is a Korean audio description signal for visually impaired people, stream 2 is an English normal audio signal, stream 3 can each contain an English audio description signal for the visually impaired.

3)シングルビューで一つの言語からなるオーディオ信号ストリームの一つとこれに対する異なる言語で支援される視覚障害者のためのオーディオディスクリプション信号が二つ送信されることができる。例えば、ストリーム0は、韓国語または英語ノーマルオーディオ信号、ストリーム1は、視覚障害者のための韓国語オーディオディスクリプション信号、ストリーム2は、視覚障害者のための英語オーディオディスクリプション信号をそれぞれ含むことができる。   3) One audio signal stream composed of one language in a single view and two audio description signals for visually impaired persons supported in different languages can be transmitted. For example, stream 0 includes a Korean or English normal audio signal, stream 1 includes a Korean audio description signal for the visually impaired, and stream 2 includes an English audio description signal for the visually impaired. Can do.

4)ソース装置がマルチビューのためのオーディオ信号を送信することができる。デュアルビューが支援される場合、最も基本的な形態は、各ビューに対するオーディオ信号を一つの送信ストリームに送信することである。デュアルビューの場合、独立的な第1ビューと第2ビューを含み、各ビューは、独立的なコンテンツを提供する。   4) The source device can transmit an audio signal for multiview. When dual views are supported, the most basic form is to send the audio signal for each view in one transmission stream. The dual view includes independent first and second views, each view providing independent content.

5)各ビューに対して2個国語が支援されることができる。この場合、第1ビューに対する第1言語からなるオーディオ信号ストリーム、第1ビューに対する第2言語からなるオーディオ信号ストリーム、第2ビューに対する第1言語からなるオーディオ信号ストリーム、第2ビューに対する第2言語からなるオーディオ信号ストリームがそれぞれ送信されることができる。例えば、英語と韓国語とが支援される場合、ストリーム0は、第1ビューに対する韓国語オーディオ信号、ストリーム1は、第1ビューに対する英語オーディオ信号、ストリーム2は、第2ビューに対する韓国語オーディオ信号、ストリーム3は、第2ビューに対する英語オーディオ信号を含むことができる。   5) Two languages can be supported for each view. In this case, from the first language audio signal stream for the first view, the second language audio signal stream for the first view, the first language audio signal stream for the second view, and the second language for the second view. Each audio signal stream can be transmitted. For example, if English and Korean are supported, stream 0 is a Korean audio signal for the first view, stream 1 is an English audio signal for the first view, and stream 2 is a Korean audio signal for the second view. , Stream 3 may include an English audio signal for the second view.

6)デュアルビューの場合、何れか一つのビューは、視覚障害者のためのオーディオディスクリプション信号をさらに送信できる。すなわち、第1ビューに対するオーディオ信号ストリーム、第2ビューに対するノーマルオーディオ信号ストリーム、第2ビューに対する視覚障害者のためのオーディオディスクリプション信号ストリームが各々送信されることができる。例えば、ストリーム0は、第1ビューに対するオーディオ信号、ストリーム1は、第2ビューに対するオーディオ信号、ストリーム3は、第2ビューに対するオーディオディスクリプション信号を含むことができる。   6) In the case of dual view, any one view can further transmit an audio description signal for the visually impaired. That is, an audio signal stream for the first view, a normal audio signal stream for the second view, and an audio description signal stream for the visually impaired person for the second view can be transmitted. For example, stream 0 may include an audio signal for the first view, stream 1 may include an audio signal for the second view, and stream 3 may include an audio description signal for the second view.

7)一つのストリームは、共通オーディオ信号を送信するのに使用することができる。すなわち、第1ビューと第2ビューに対する共通オーディオ信号ストリーム、第1ビュー専用オーディオストリーム、第2ビュー専用オーディオストリームがそれぞれ送信されることができる。この場合、受信端では、共通オーディオストリームと専用オーディオストリームをマルチプレックス(Muxing)して出力する。このようなシナリオは、ゲームの場合に適用されることができる。例えば、ストリーム0は、第1ビューと第2ビューに対する共通オーディオ信号(例えば、背景音響、進行案内ボイス等)、ストリーム1は、第1ビューに対する専用オーディオ信号、ストリーム2は、第2ビューに対する専用オーディオ信号を含むことができる。   7) One stream can be used to transmit a common audio signal. That is, a common audio signal stream, a first view dedicated audio stream, and a second view dedicated audio stream for the first view and the second view can be transmitted, respectively. In this case, at the receiving end, the common audio stream and the dedicated audio stream are multiplexed and output. Such a scenario can be applied in the case of a game. For example, stream 0 is a common audio signal for the first view and the second view (for example, background sound, progress guidance voice, etc.), stream 1 is a dedicated audio signal for the first view, and stream 2 is dedicated for the second view. Audio signals can be included.

図7は、本発明の一実施の形態にかかるデータ送受信システム1000−1の構成を示すブロック図である。   FIG. 7 is a block diagram showing a configuration of the data transmission / reception system 1000-1 according to the embodiment of the present invention.

図7に示すように、本発明の一実施の形態にかかるデータ送受信システム1000−1は、データ送信装置100−1とデータ受信装置200−1とを備える。   As shown in FIG. 7, a data transmission / reception system 1000-1 according to an embodiment of the present invention includes a data transmission device 100-1 and a data reception device 200-1.

データ送信装置100−1は、第1サブパケット及び第2サブパケットを含むパケットをデータ受信装置200−1に送信する。   The data transmission device 100-1 transmits a packet including the first subpacket and the second subpacket to the data reception device 200-1.

データ受信装置200−1は、前記データ送信装置100−1から第1サブパケット及び第2サブパケットを含む前記パケットを受信する。   The data reception device 200-1 receives the packet including the first subpacket and the second subpacket from the data transmission device 100-1.

このとき、前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含む。   At this time, the first subpacket and the second subpacket include different audio data for the first content.

以下、データ送信装置100−1とデータ受信装置200−1の構成をさらに詳細に説明する。   Hereinafter, the configurations of the data transmission device 100-1 and the data reception device 200-1 will be described in more detail.

図8は、本発明の一実施の形態にかかるデータ送信装置100−1の構成を示すブロック図である。   FIG. 8 is a block diagram showing a configuration of the data transmitting apparatus 100-1 according to the embodiment of the present invention.

図8に示すように、本発明の一実施の形態にかかるデータ送信装置100−1は、パケット生成部110と送信部120とを備える。   As illustrated in FIG. 8, the data transmission device 100-1 according to the embodiment of the present invention includes a packet generation unit 110 and a transmission unit 120.

パケット生成部110は、第1サブパケット及び第2サブパケットを含むパケットを生成する。このとき、前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含む。   The packet generator 110 generates a packet including the first subpacket and the second subpacket. At this time, the first subpacket and the second subpacket include different audio data for the first content.

送信部120は、前記生成されたパケットをデータ受信装置200−1に送信する。   The transmission unit 120 transmits the generated packet to the data reception device 200-1.

このとき、前記第1サブパケットは、非障害者のためのオーディオデータを含み、前記第2サブパケットは、視覚障害者のためのオーディオデータを含むことができる。   At this time, the first subpacket may include audio data for a non-disabled person, and the second subpacket may include audio data for a visually impaired person.

また、前記第1サブパケット及び前記第2サブパケットは、相異なる言語からなるオーディオデータを含むことができる。   The first subpacket and the second subpacket may include audio data in different languages.

また、前記第1サブパケットは、前記第2サブパケットに対するオーディオディスクリプションに該当するオーディオデータを含むことができる。   The first subpacket may include audio data corresponding to an audio description for the second subpacket.

また、前記パケットは、前記第1コンテンツと相異なる第2コンテンツに対するオーディオデータを含む第3サブパケットをさらに含むことができる。   The packet may further include a third subpacket including audio data for the second content different from the first content.

このとき、前記第1サブパケットが含むオーディオデータは、前記第1コンテンツに対する専用オーディオデータで、前記第3サブパケットが含むオーディオデータは、前記第2コンテンツに対する専用オーディオデータであり、前記第2サブパケットが含むオーディオデータは、前記第1コンテンツ及び前記第2コンテンツに対する共通オーディオデータになることができる。   At this time, the audio data included in the first subpacket is dedicated audio data for the first content, the audio data included in the third subpacket is dedicated audio data for the second content, and the second subpacket The audio data included in the packet can be common audio data for the first content and the second content.

また、前記パケットは、第2コンテンツに対するオーディオデータを含む第4サブパケットをさらに含むことができ、前記第3サブパケットと前記第4サブパケットとは、相異なるオーディオデータを含むことができる。   The packet may further include a fourth subpacket including audio data for the second content, and the third subpacket and the fourth subpacket may include different audio data.

図9は、本発明の一実施の形態にかかるデータ受信装置200−1の構成を示すブロック図である。   FIG. 9 is a block diagram showing the configuration of the data receiving apparatus 200-1 according to the embodiment of the present invention.

図9に示すように、本発明の一実施の形態にかかるデータ受信装置200−1は、受信部210及びパーシング部220を備える。   As shown in FIG. 9, the data receiving device 200-1 according to the embodiment of the present invention includes a receiving unit 210 and a parsing unit 220.

受信部210は、データ送信装置100−1から第1サブパケット及び第2サブパケットを含むパケットを受信する。このとき、前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含むことができる。   The receiving unit 210 receives a packet including the first subpacket and the second subpacket from the data transmission device 100-1. At this time, the first sub-packet and the second sub-packet may include different audio data for the first content.

パーシング部220は、前記受信された第1サブパケット及び前記第2サブパケットをパーシングする構成である。   The parsing unit 220 is configured to parse the received first subpacket and the second subpacket.

前記第1サブパケット及び前記第2サブパケットは、相異なる言語からなるオーディオデータを含むことができる。   The first subpacket and the second subpacket may include audio data in different languages.

これとは異なり、前記第1サブパケットは、前記第2サブパケットに対するオーディオディスクリプションに該当するオーディオデータを含むことができる。   In contrast, the first subpacket may include audio data corresponding to an audio description for the second subpacket.

また、前記パケットは、前記第1コンテンツと相異なる第2コンテンツに対するオーディオデータを含む第3サブパケットをさらに含むことができる。   The packet may further include a third subpacket including audio data for the second content different from the first content.

このとき、前記第1サブパケットが含むオーディオデータは、前記第1コンテンツに対する専用オーディオデータで、前記第3サブパケットが含むオーディオデータは、前記第2コンテンツに対する専用オーディオデータであり、前記第2サブパケットが含むオーディオデータは、前記第1コンテンツ及び前記第2コンテンツに対する共通オーディオデータになることができる。   At this time, the audio data included in the first subpacket is dedicated audio data for the first content, the audio data included in the third subpacket is dedicated audio data for the second content, and the second subpacket The audio data included in the packet can be common audio data for the first content and the second content.

また、前記パケットは、第2コンテンツに対するオーディオデータを含む第4サブパケットをさらに含むことができ、前記第3サブパケットと前記第4サブパケットとは、相異なるオーディオデータを含むことができる。   The packet may further include a fourth subpacket including audio data for the second content, and the third subpacket and the fourth subpacket may include different audio data.

オーディオメタデータパケット(Audio Metadata Packet)
ソース装置は、オーディオメタデータパケットをシンク装置に送信して、送信されるオーディオスペックを知らせる。このとき、オーディオメタデータパケットのヘッダは、下記のような構造を有する。

Figure 2016513930
Audio metadata packet (Audio Metadata Packet)
The source device transmits an audio metadata packet to the sink device to inform the audio specification to be transmitted. At this time, the header of the audio metadata packet has the following structure.
Figure 2016513930

各フィールドを説明すれば、次の通りである。   Each field will be described as follows.

3Dオーディオフィールド(3D_AUDIO)[1bit]:3D_AUDIO=1であると、オーディオメタデータパケット(Audio Metadata Packet)は、3Dオーディオチャネルカウント(3D Audio Channel count:3D_CCフィールド。下記の表を参照)とチャネル/スピーカー割り当て情報(ACAST:Audio Channel Allocation Standard Type)フィールド(下記の表を参照)を含む。ソースが3Dオーディオパケットを送信するとき、このようなフィールドは、1に設定される。   3D audio field (3D_AUDIO) [1 bit]: When 3D_AUDIO = 1, the audio metadata packet (Audio Metadata Packet) has a 3D audio channel count (3D Audio Channel count: 3D_CC field, see table below) and channel / Includes a speaker assignment information (ACAST) field (see table below). Such a field is set to 1 when the source sends a 3D audio packet.

ビュー個数フィールド(NUM_VIEWS)[2bits]:ビューの個数を表す。NUM_VIEWS=00であると、シングルビュービデオストリーミングが支援される。NUM_VIEWS=01であると、デュアルビュービデオストリーミングが支援される。このモードは、VSIFでの3D_DualView=1の場合のみに許容される。残りのNUM_VIEWS値に対しては、未来の使用のためにリザーブされている。   View number field (NUM_VIEWS) [2 bits]: Indicates the number of views. If NUM_VIEWS = 00, single view video streaming is supported. If NUM_VIEWS = 01, dual view video streaming is supported. This mode is only allowed when 3D_DualView = 1 in VSIF. The remaining NUM_VIEWS values are reserved for future use.

オーディオストリーム個数フィールド(NUM_AUDIO_STR)[2bits]:オーディオストリームの個数−1を表す。NUM_AUDIO_STR=01、10、または11の場合、オーディオメタデータパケット(Audio Metadata Packet)は、最大4個までオーディオメタデータディスクリプタ(audio metadata descriptor)を含み、各々は、オーディオストリームに対応する。

Figure 2016513930
Audio stream number field (NUM_AUDIO_STR) [2 bits]: Indicates the number of audio streams−1. When NUM_AUDIO_STR = 01, 10, or 11, the audio metadata packet (Audio Metadata Packet) includes up to four audio metadata descriptors, each corresponding to an audio stream.
Figure 2016513930

下記の表は、3Dオーディオのためのオーディオメタデータパケットのペイロードを表す。3D_Audio=1の場合、メタデータパケットペイロードは、以下の構造を有する。

Figure 2016513930
The table below represents the payload of an audio metadata packet for 3D audio. When 3D_Audio = 1, the metadata packet payload has the following structure.
Figure 2016513930

すなわち、3Dオーディオチャネルカウント情報を表す3D_CCフィールドと、ソースにより提供されるオーディオチャネル割り当て標準タイプを表示するACASTフィールドを含む。   That is, it includes a 3D_CC field representing 3D audio channel count information and an ACAST field indicating the audio channel allocation standard type provided by the source.

表51は、3D_CC値に応じるオーディオチャネルを示しており、表52は、ACASTフィールド値に応じるオーディオチャネル割り当て標準タイプを示す。

Figure 2016513930
Figure 2016513930
Table 51 shows audio channels according to 3D_CC values, and Table 52 shows audio channel allocation standard types according to ACAST field values.
Figure 2016513930
Figure 2016513930

下記の表は、マルチストリームオーディオのためのオーディオメタデータパケットのペイロードを示す。3D_Audio=0の場合、メタデータパケットペイロードは、下記の構造を有する。

Figure 2016513930
The table below shows the payload of an audio metadata packet for multi-stream audio. When 3D_Audio = 0, the metadata packet payload has the following structure.
Figure 2016513930

前記表53に示すように、オーディオメタデータパケットのペイロードは、それぞれ5バイトのオーディオメタデータディスクリプタ(Audio_Metadata_Descriptor)を含む。オーディオメタデータディスクリプタ(4フィールド、各5バイト)は、マルチストリームオーディオサンプルパケット(Multi−stream Audio Sample Packet)においてサブパケットXに対したオーディオメタデータまたはマルチストリームワンビットオーディオサンプルパケット(Multi−stream One Bit Audio Sample Packet)においてサブパケットXに対したオーディオメタデータを表現する。オーディオメタデータディスクリプタは、下記で構造が説明される。

Figure 2016513930
As shown in Table 53, the payload of the audio metadata packet includes a 5-byte audio metadata descriptor (Audio_Metadata_Descriptor). The audio metadata descriptor (4 fields, 5 bytes each) is an audio metadata or multi-stream one-bit audio sample packet (Multi-stream One) for the subpacket X in the multi-stream audio sample packet. The audio metadata for the subpacket X is expressed in Bit Audio Sample Packet). The structure of the audio metadata descriptor is described below.
Figure 2016513930

各フィールドを説明すれば、以下のとおりである。   Each field will be described as follows.

緊急チャネルフィールド(Emergency_Channel)[1bit]:Emergency_Channel=1であると、対応するオーディオストリームは、緊急警告オーディオデータを送信する。受信装置は、スクリプトなどを介して緊急放送があることを知らせることができ、ユーザは、オーディオ選択を介して受信した緊急警告オーディオ信号を出力させることができる。   Emergency channel field (Emergency_Channel) [1 bit]: When Emergency_Channel = 1, the corresponding audio stream transmits emergency alert audio data. The receiving apparatus can notify that there is an emergency broadcast through a script or the like, and the user can output the emergency warning audio signal received through the audio selection.

マルチビューフィールド(左側)(Multiview_Left)[1bit]:Multiview_Left=1であると、対応するオーディオストリームが3Dビデオフォーマットにおいて左側立体映像にマッピングされる。もしMultiview_Left=0であると、このフィールドは、NUM_VIEWS=01の場合のみに有効である。   Multiview field (left side) (Multiview_Left) [1 bit]: When Multiview_Left = 1, the corresponding audio stream is mapped to the left stereoscopic video in the 3D video format. If Multiview_Left = 0, this field is valid only when NUM_VIEWS = 01.

マルチビューフィールド(右側)(Multiview_Right[1bit]:Multiview_Right=1であると、対応するオーディオストリームが3Dビデオフォーマットにおいて右側の立体映像にマッピングされる。もしMultiview_Right=0であると、このフィールドは、NUM_VIEWS=01の場合のみに有効である。   Multiview field (right side) (Multiview_Right [1 bit]: If Multiview_Right = 1, the corresponding audio stream is mapped to the right stereoscopic video in 3D video format. If Multiview_Right = 0, this field is NUM_VIEWS. Effective only for = 01.

言語コード有効フィールド(LC_Valid)[1bit]:LC_Valid=1であると、言語コード(Language_Code)が有効で、対応するオーディオストリームの言語を正確に識別する。それとも、対応するオーディオストリームの言語は、明示されないことになる。   Language code valid field (LC_Valid) [1 bit]: When LC_Valid = 1, the language code (Language_Code) is valid and the language of the corresponding audio stream is accurately identified. Or, the language of the corresponding audio stream will not be specified.

補助オーディオ有効フィールド(Suppl_A_Valid)[1bit]:Suppl_A_Valid=1であると、対応するオーディオストリームは、Suppl_A_Typeにより現れた補助オーディオトラック(supplemental audio track)を含む。   Auxiliary audio valid field (Suppl_A_Valid) [1 bit]: When Suppl_A_Valid = 1, the corresponding audio stream includes an auxiliary audio track (supplemental audio track) that appears by Suppl_A_Type.

プレミックス補助オーディオフィールド(Suppl_A_Mixed[1bit]:Suppl_A_Mixed=1であると、対応するオーディオストリームは、メインオーディオコンポーネントとSuppl_A_Typeにより現れたプレミックス補助オーディオトラック(pre−mixed supplemental audio track)を含むことができる。このビットは、Suppl_A_Valid=1の場合のみに有効である。   Premix auxiliary audio field (Suppl_A_Mixed [1 bit]: Suppl_A_Mixed = 1, the corresponding audio stream can include a main audio component and a premix auxiliary audio track (pre-mixed audio track that appears by Suppl_A_Type). This bit is valid only when Suppl_A_Valid = 1.

補助オーディオタイプフィールド(Suppl_A_Type)[3bits]:下記の表で定義される補助オーディオタイプを表す。このフィールドは、Suppl_A_Valid=1の場合のみに有効である。表55は、補助オーディオタイプフィールド値のディスクリプションを示す。   Auxiliary audio type field (Suppl_A_Type) [3 bits]: Auxiliary audio type defined in the following table. This field is valid only when Suppl_A_Valid = 1. Table 55 shows the description of the auxiliary audio type field value.

言語コード(Language_Code)[3Bytes]:対応するオーディオストリームの言語を識別する。言語コードは、ISO639で定義される。そして、3キャラクターコードが位置するが、最後のキャラクターコードは、オーディオメタデータディスクリプタX(Audio_Metadata_Descriptor_X)の最後のバイトと一致する。このフィールドは、LC_Valid=1の場合のみに有効である。

Figure 2016513930
Language code (Language_Code) [3 Bytes]: The language of the corresponding audio stream is identified. The language code is defined by ISO639. Although the three character codes are located, the last character code matches the last byte of the audio metadata descriptor X (Audio_Metadata_Descriptor_X). This field is valid only when LC_Valid = 1.
Figure 2016513930

図10は、本発明の他の実施の形態にかかるデータ送受信システム1000−2の構成を示すブロック図である。   FIG. 10 is a block diagram showing a configuration of a data transmission / reception system 1000-2 according to another embodiment of the present invention.

図10に示すように、本発明の他の実施の形態にかかるデータ送受信システム1000−2は、データ送信装置100−2及びデータ受信装置200−2を備える。   As shown in FIG. 10, a data transmission / reception system 1000-2 according to another embodiment of the present invention includes a data transmission device 100-2 and a data reception device 200-2.

データ送信装置100−2は、オーディオメタデータパケットを生成してデータ受信装置200−2に送信する。   The data transmission device 100-2 generates an audio metadata packet and transmits it to the data reception device 200-2.

データ受信装置200−2は、前記データ送信装置100−2から前記オーディオメタデータパケットを受信する。   The data receiving device 200-2 receives the audio metadata packet from the data transmitting device 100-2.

このとき、前記オーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む。   At this time, the header of the audio metadata packet includes a 3D audio field (3D Audio Field) indicating whether or not the 3D audio sample packet is transmitted.

以下、データ送信装置100−2とデータ受信装置200−2の構成と、オーディオメタデータパケットの構成とをさらに詳細に説明する。   Hereinafter, the configuration of the data transmission device 100-2 and the data reception device 200-2 and the configuration of the audio metadata packet will be described in more detail.

図11は、本発明の他の実施の形態にかかるデータ送信装置100−2は、パケット生成部110及び送信部120を備える。   FIG. 11 shows a data transmission device 100-2 according to another embodiment of the present invention, which includes a packet generation unit 110 and a transmission unit 120.

パケット生成部110は、オーディオメタデータパケットを生成する。前記生成されたオーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含むことができる。   The packet generator 110 generates an audio metadata packet. The header of the generated audio metadata packet may include a 3D audio field (3D Audio Field) indicating whether or not a 3D audio sample packet is transmitted.

送信部120は、前記生成されたオーディオメタデータパケットをデータ受信装置200−2に送信する。   The transmission unit 120 transmits the generated audio metadata packet to the data reception device 200-2.

また、前記生成されたオーディオメタデータパケットのヘッダは、送信されるオーディオストリームの個数情報を表すオーディオストリーム個数フィールド(Number Of Audio Stream Field)をさらに含むことができる。   In addition, the header of the generated audio metadata packet may further include an audio stream number field (Number Of Audio Stream Field) indicating the number information of audio streams to be transmitted.

また、前記生成されたオーディオメタデータパケットのヘッダは、送信される相異なるコンテンツの個数情報を表すビュー個数フィールド(Number Of Views Field)をさらに含むことができる。   In addition, the header of the generated audio metadata packet may further include a view number field (Number Of Views Field) indicating the number information of different contents to be transmitted.

また、前記生成されたオーディオメタデータパケットのペイロードは、マルチストリームオーディオサンプルパケット(Multi−stream Audio Sample Packet)またはマルチストリームワンビットオーディオサンプルパケット(Multi−stream One Bit Audio Sample Packet)のサブパケットに対するメタデータを表すオーディオメタデータディスクリプタフィールドを含むことができる。   In addition, the payload of the generated audio metadata packet includes a meta packet corresponding to a sub-packet of a multi-stream audio sample packet (Multi-stream Audio Sample Packet) or a multi-stream one-bit audio sample packet (Multi-stream One Bit Audio Sample Packet). An audio metadata descriptor field representing the data can be included.

また、前記オーディオメタデータディスクリプタフィールドは、緊急状況放送があるかどうかを表す緊急チャネルフィールド(Emergency Channel Field)、マルチビューにおいて左眼または右眼映像に対応するオーディオデータを含むかどうかを表すマルチビューフィールド(Multivew Field)、オーディオデータに対する言語の識別有無を表す言語コード有効フィールド(Language Code Valid Field)、補助オーディオデータ有無を表す補助オーディオ有効フィールド(Supplemental Audio Valid Field)、メインオーディオデータと前記補助オーディオデータとのプレミックス有無を表すプレミックス補助オーディオフィールド(pre−mixed Supplemental Audio Field)、前記補助オーディオデータのタイプを表す補助オーディオタイプフィールド(Supplemental Audio Type Field)、及びオーディオデータに対する言語コードを表す言語コードフィールド(Language Code Field)のうち、少なくとも一つを含むことができる。   The audio metadata descriptor field includes an emergency channel field indicating whether there is an emergency situation broadcast, and a multi-view indicating whether audio data corresponding to a left-eye or right-eye image is included in the multi-view. A field (Multiview Field), a language code valid field (Language Code Valid Field) indicating whether or not language is identified for audio data, an auxiliary audio valid field (Supplemental Audio Valid Field) indicating the presence or absence of auxiliary audio data, main audio data and the auxiliary audio Premix auxiliary audio field (pre-) indicating presence / absence of premix with data It includes at least one of an “Implemented Supplemental Audio Field”, an auxiliary audio type field indicating the type of the auxiliary audio data (Supplemental Audio Type Field), and a language code field indicating the language code for the audio data (Language Code Field). Can do.

図12は、本発明の他の実施の形態にかかるデータ受信装置200−2の構成を示すブロック図である。   FIG. 12 is a block diagram showing a configuration of a data receiving apparatus 200-2 according to another embodiment of the present invention.

図12に示すように、本発明の他の実施の形態にかかるデータ受信装置200−2は、受信部210及びパーシング部220を有する。   As illustrated in FIG. 12, a data reception device 200-2 according to another embodiment of the present invention includes a reception unit 210 and a parsing unit 220.

受信部210は、データ送信装置100−2からオーディオメタデータパケットを受信する構成である。前記オーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む。   The receiving unit 210 is configured to receive an audio metadata packet from the data transmission device 100-2. The header of the audio metadata packet includes a 3D audio field (3D Audio Field) indicating whether or not a 3D audio sample packet is transmitted.

パーシング部220は、前記受信されたオーディオメタデータパケットをパーシングする構成である。   The parsing unit 220 is configured to parse the received audio metadata packet.

また、前記オーディオメタデータパケットのヘッダは、受信されるオーディオストリームの個数情報を表すオーディオストリーム個数フィールド(Number Of Audio Stream Field)をさらに含むことができる。   In addition, the header of the audio metadata packet may further include an audio stream number field (Number Of Audio Stream Field) indicating the number information of the received audio streams.

また、前記オーディオメタデータパケットのヘッダは、受信される相異なるコンテンツの個数情報を表すビュー個数フィールド(Number Of Views Field)をさらに含むことができる。   In addition, the header of the audio metadata packet may further include a view number field (Number Of Views Field) indicating the number information of different received contents.

また、前記オーディオメタデータパケットのペイロード(payload)は、マルチストリームオーディオサンプルパケット(Multi−stream Audio Sample Packet)またはマルチストリームワンビットオーディオサンプルパケット(Multi−stream One Bit Audio Sample Packet)のサブパケットに対するメタデータを表すオーディオメタデータディスクリプタフィールドを含むことができる。   In addition, the payload of the audio metadata packet is a meta for a sub-packet of a multi-stream audio sample packet (Multi-stream Audio Sample Packet) or a multi-stream one-bit audio sample packet (Multi-stream One Bit Audio Sample Packet). An audio metadata descriptor field representing the data can be included.

このとき、前記オーディオメタデータディスクリプタフィールドは、緊急状況放送があるかどうかを表す緊急チャネルフィールド(Emergency Channel Field)、マルチビューにおいて左眼または右眼映像に対応するオーディオデータを含むかどうかを表すマルチビューフィールド(Multivew Field)、オーディオデータに対する言語の識別有無を表す言語コード有効フィールド(Language Code Valid Field)、補助オーディオデータ有無を表す補助オーディオ有効フィールド(Supplemental Audio Valid Field)、メインオーディオデータと前記補助オーディオデータとのプレミックス有無を表すプレミックス補助オーディオフィールド(pre−mixed Supplemental Audio Field)、前記補助オーディオデータのタイプを表す補助オーディオタイプフィールド(Supplemental Audio Type Field)、及びオーディオデータに対する言語コードを表す言語コードフィールド(Language Code Field)のうち、少なくとも一つを含むことができる。   At this time, the audio metadata descriptor field includes an emergency channel field (Emergency Channel Field) indicating whether there is an emergency situation broadcast, and a multi-view indicating whether audio data corresponding to the left-eye or right-eye video is included in the multi-view. View field (Multiview Field), Language code valid field (Language Code Valid Field) indicating whether or not language is identified for audio data, Auxiliary audio valid field (Supplemental Audio Valid Field) indicating the presence or absence of auxiliary audio data, main audio data and the auxiliary A premix auxiliary audio field (pr indicating the presence or absence of premix with audio data) -It includes at least one of a mixed Supplemental Audio Field), an auxiliary audio type field indicating the type of the auxiliary audio data (Supplemental Audio Type Field), and a language code field indicating the language code for the audio data (Language Code Field). be able to.

オーディオデータブロック(Audio Data Block)
以下は、EDID(Extended Display Identification Data)のオーディオデータブロックを示す表である。下記の表において3−4バイト部分は、下記の表で再定義する。
Audio data block (Audio Data Block)
The following is a table showing audio data blocks of EDID (Extended Display Identification Data). In the table below, the 3-4 byte part is redefined in the table below.

また、マルチストリームオーディオのための新しい短縮オーディオディスクリプタ(Short Audio Descriptor:SAD)は削除し、その代りに、EDIDで定義されたノーマル(normal)SADを使用する。追加された内容によれば、2個のチャネルまで送信されることができる。

Figure 2016513930
In addition, a new short audio descriptor (SAD) for multi-stream audio is deleted, and a normal SAD defined by EDID is used instead. According to the added content, up to two channels can be transmitted.
Figure 2016513930

下記の表は、前記オーディオデータブロックの3−4バイトを取り替えるブロック構成を示す。

Figure 2016513930
The following table shows a block configuration for replacing 3-4 bytes of the audio data block.
Figure 2016513930

各フィールドを説明すれば、次の通りである。   Each field will be described as follows.

緊急チャネルフィールド(Supports_MS_Emergency[1bit]:Supports_MS_Emergency=1であると、シンク装置は、緊急警告オーディオチャネルを受信し、処理することを支援する。Supports_MS_Emergency=0であると、シンク装置は、このような特徴を支援しない。   Emergency channel field (Supports_MS_Emergency [1bit]: Supports_MS_Emergency = 1, the sink device helps to receive and process the emergency alert audio channel. If the Supports_MS_Emergency = 0, the feature is Do not support.

オーディオミックスフィールド(Supports_MS_Mix)[1bit]:Supports_MS_Mix=1であると、シンク装置は、メインオーディオと補助オーディオ(supplementary audio)とを合成することを支援する。Supports_MS_Mix=0であるとシンク装置は、このような合成を支援せず、ミックスされたオーディオを再生することだけを支援する。   Audio mix field (Supports_MS_Mix) [1 bit]: When Supports_MS_Mix = 1, the sink device supports the synthesis of the main audio and the auxiliary audio (supplementary audio). If Supports_MS_Mix = 0, the sink device does not support such synthesis, but only supports playback of mixed audio.

補助オーディオ支援フィールド(Supports_MS_Supple)[1bit]:Supports_MS_Supple=1であると、シンク装置は、視覚/聴覚障害者のための補助オーディオトラックを有するマルチストリームオーディオを支援する。Supports_MS_Supple=0であると、何も表さないか、またはシンク装置が視覚/聴覚障害者のための補助オーディオトラックを支援しないことを表す。   Auxiliary Audio Support Field (Supports_MS_Supple) [1 bit]: If Supports_MS_Suppl = 1, the sink device supports multi-stream audio with an auxiliary audio track for the visually impaired. Supports_MS_Supple = 0 indicates nothing or that the sink device does not support an auxiliary audio track for the visually impaired.

言語支援フィールド(Supports_MS_Lang)[1bit]:Supports_MS_Lang=1であると、シンク装置は、多数の言語オーディオストリームを有するマルチストリームオーディオを支援する。Supports_MS_Lang=0であると、何も表さないか、またはシンク装置が多数の言語オーディオストリームを支援しないことを表す。   Language support field (Supports_MS_Lang) [1 bit]: When Supports_MS_Lang = 1, the sink device supports multi-stream audio having multiple language audio streams. Supports_MS_Lang = 0 indicates nothing or indicates that the sink device does not support multiple language audio streams.

マルチビューオーディオ支援フィールド(Supports_MS_MultiView)[1bit]:Supports_MS_MultiView=1であると、シンク装置は、マルチビュービデオストリーミングのためのマルチストリームオーディオを支援する。Supports_MS_MultiView=0であると、何も表さないか、またはシンク装置がマルチビュービデオストリーミングのためのマルチストリームオーディオを支援しないことを表す。   Multi-view audio support field (Supports_MS_MultiView) [1 bit]: If Supports_MS_MultiView = 1, the sink device supports multi-stream audio for multi-view video streaming. Supports_MS_MultiView = 0 indicates nothing or that the sink device does not support multi-stream audio for multi-view video streaming.

最大ストリームカウントフィールド(Max_Stream_Count−1[2bits]:シンク装置がハンドリングできる最大オーディオストリームの個数を表す。Max_Stream_Count−1値が下記の表に示される。   Maximum stream count field (Max_Stream_Count-1 [2 bits]: Indicates the maximum number of audio streams that can be handled by the sink device. The Max_Stream_Count-1 value is shown in the table below.

オーディオディスクリプタ個数フィールド(NUM_HDMI_3D_AD)[3bits]:3Dオーディオディスクリプタの個数を表す。

Figure 2016513930
Audio descriptor number field (NUM_HDMI — 3D_AD) [3 bits]: Indicates the number of 3D audio descriptors.
Figure 2016513930

図13は、本発明のさらに他の実施の形態にかかるデータ送受信システム1000−3の構成を示すブロック図である。   FIG. 13: is a block diagram which shows the structure of the data transmission / reception system 1000-3 concerning further another embodiment of this invention.

図13に示すように、本発明のさらに他の実施の形態にかかるデータ送受信システム1000−3は、データ送信装置100−3及びデータ受信装置200−3を備える。   As shown in FIG. 13, a data transmission / reception system 1000-3 according to still another embodiment of the present invention includes a data transmission device 100-3 and a data reception device 200-3.

データ送信装置100−3は、オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を生成して、データ受信装置200−3に送信する。   The data transmission device 100-3 generates display identification information including feature information supported by the sink device regarding the audio data, and transmits the display identification information to the data reception device 200-3.

データ受信装置200−3は、前記データ送信装置100−3から前記ディスプレイ識別情報を受信して分析する。このとき、前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む。   The data receiving device 200-3 receives and analyzes the display identification information from the data transmitting device 100-3. At this time, the display identification information includes a main / auxiliary audio characteristic field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.

以下、データ送信装置100−3とデータ受信装置200−3をさらに詳細に説明する。   Hereinafter, the data transmission device 100-3 and the data reception device 200-3 will be described in more detail.

図14は、本発明のさらに他の実施の形態にかかるデータ送信装置100−3の構成を示すブロック図である。   FIG. 14 is a block diagram showing a configuration of a data transmitting apparatus 100-3 according to still another embodiment of the present invention.

図14に示すように、本発明のさらに他の実施の形態にかかるデータ送信装置100−3は、生成部130と送信部120を備える。   As illustrated in FIG. 14, a data transmission device 100-3 according to still another embodiment of the present invention includes a generation unit 130 and a transmission unit 120.

生成部130は、オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を生成する構成である。   The generation unit 130 is configured to generate display identification information including feature information supported by the sink device regarding audio data.

送信部120は、データ受信装置200−3に前記ディスプレイ識別情報を送信する。   The transmission unit 120 transmits the display identification information to the data reception device 200-3.

このとき、前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む。   At this time, the display identification information includes a main / auxiliary audio characteristic field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.

このとき、前記メイン/補助オーディオ特性フィールドは、前記シンク装置がメインオーディオと補助オーディオとの合成を支援するかどうかを表すオーディオミックスフィールド(Audio Mix Field)、前記シンク装置が補助オーディオを支援するかどうかを表す補助オーディオ支援フィールド(Supplemental Audio Support Field)、前記シンク装置が複数の言語からなるオーディオデータを支援するかどうかを表す言語支援フィールド(Language Support Field)、前記シンク装置がマルチビューコンテンツのためのマルチストリームオーディオデータを支援するかどうかを表すマルチビューオーディオ支援フィールド(Multiview Audio Support Field)、前記シンク装置がハンドリングできる最大オーディオストリームの個数を表す最大ストリームカウントフィールド(Maximum Stream Count Field)、及び3Dオーディオディスクリプタの個数を表すオーディオディスクリプタ個数フィールド(Number Of Audio Descriptor Field)のうち、少なくとも一つを含むことができる。   At this time, the main / auxiliary audio characteristic field includes an audio mix field (Audio Mix Field) indicating whether the sink device supports synthesis of main audio and auxiliary audio, and whether the sink device supports auxiliary audio. Auxiliary audio support field indicating whether the sink device supports audio data consisting of a plurality of languages (Language Support Field), and the sink device is for multi-view content Multi-view audio support field indicating whether to support multi-stream audio data (Multiview Audio Supp) rt Field), a maximum stream count field (Maximum Stream Count Field) representing the number of maximum audio streams that can be handled by the sink device, and an audio descriptor number field (Number Of Audio Descriptor Field) representing the number of 3D audio descriptors, At least one can be included.

また、前記ディスプレイ識別情報は、前記シンク装置が緊急状況放送受信及び処理を支援するかどうかを表す緊急チャネルフィールド(Emergency Channel Field)をさらに含むことができる。   The display identification information may further include an emergency channel field indicating whether the sink device supports emergency situation broadcast reception and processing.

図15は、本発明のさらに他の実施の形態にかかるデータ受信装置200−3の構成を示すブロック図である。   FIG. 15 is a block diagram showing a configuration of a data receiving apparatus 200-3 according to still another embodiment of the present invention.

図15に示すように、本発明のさらに他の実施の形態にかかるデータ受信装置200−3は、受信部210及び分析部230を備える。   As shown in FIG. 15, a data reception device 200-3 according to still another embodiment of the present invention includes a reception unit 210 and an analysis unit 230.

受信部210は、オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報をデータ送信装置100−3から受信する構成である。   The reception unit 210 is configured to receive display identification information including feature information supported by the sink device regarding audio data from the data transmission device 100-3.

分析部230は、前記受信されたディスプレイ識別情報を分析する。   The analysis unit 230 analyzes the received display identification information.

このとき、前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む。   At this time, the display identification information includes a main / auxiliary audio characteristic field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.

また、前記メイン/補助オーディオ特性フィールドは、前記シンク装置がメインオーディオと補助オーディオとの合成を支援するかどうかを表すオーディオミックスフィールド(Audio Mix Field)、前記シンク装置が補助オーディオを支援するかどうかを表す補助オーディオ支援フィールド(Supplemental Audio Support Field)、前記シンク装置が複数の言語からなるオーディオデータを支援するかどうかを表す言語支援フィールド(Language Support Field)、前記シンク装置がマルチビューコンテンツのためのマルチストリームオーディオデータを支援するかどうかを表すマルチビューオーディオ支援フィールド(Multiview Audio Support Field)、前記シンク装置がハンドリングできる最大オーディオストリームの個数を表す最大ストリームカウントフィールド(Maximum Stream Count Field)、及び3Dオーディオディスクリプタの個数を表すオーディオディスクリプタ個数フィールド(Number Of Audio Descriptor Field)のうち、少なくとも一つを含むことができる。   The main / auxiliary audio characteristic field includes an audio mix field (Audio Mix Field) indicating whether the sink device supports synthesis of main audio and auxiliary audio, and whether the sink device supports auxiliary audio. An auxiliary audio support field (Language Audio Support Field) indicating whether or not the sink device supports audio data in a plurality of languages, and the sink device is used for multi-view content. Multi-view audio support field indicating whether to support multi-stream audio data (Multiview Audio Support) Field), a maximum stream count field (Maximum Stream Count Field) indicating the number of maximum audio streams that can be handled by the sink device, and an audio descriptor number field (Number Of Audio Descriptor Field) indicating the number of 3D audio descriptors. One can be included.

また、前記ディスプレイ識別情報は、前記シンク装置が緊急状況放送受信及び処理を支援するかどうかを表す緊急チャネルフィールド(Emergency Channel Field)をさらに含むことができる。   The display identification information may further include an emergency channel field indicating whether the sink device supports emergency situation broadcast reception and processing.

一方、本発明の多様な実施の形態にかかる有線インタフェースは、クアッドビューコンテンツ送信を支援できる。クアッドビュー送信のために、HDMI有線インタフェース規格の3Dビデオフォーマット規格を活用できる。   Meanwhile, the wired interface according to various embodiments of the present invention can support quad view content transmission. For quad view transmission, the 3D video format standard of the HDMI wired interface standard can be utilized.

図16Aないし図16Cは、クアッドビュービデオコンテンツを3Dインターレースフォーマットで送信する場合、多様なデータ送信フォーマットを示す図である。   16A to 16C are diagrams illustrating various data transmission formats when quad-view video content is transmitted in a 3D interlace format.

また、この場合、ベンダー特定インフォフレーム(Vendor−Specific Infoframe)とベンダー特定データブロック(Vendor−specific Data Block)を修正できる。具体的に従来の3Dデュアルビューを定義するフィールドをリザーブ領域まで拡張する。

Figure 2016513930
Figure 2016513930
Figure 2016513930
In this case, the vendor-specific info frame and the vendor-specific data block can be modified. Specifically, the field defining the conventional 3D dual view is extended to the reserved area.
Figure 2016513930
Figure 2016513930
Figure 2016513930

以下では、本発明の多様な実施の形態にかかる、データ送受信方法を説明する。   Hereinafter, data transmission / reception methods according to various embodiments of the present invention will be described.

図17は、本発明の一実施の形態にかかるデータ送信方法のフローチャートである。   FIG. 17 is a flowchart of a data transmission method according to an embodiment of the present invention.

図17に示すように、本発明の一実施の形態にかかるデータ送信方法は、第1サブパケット及び第2サブパケットを含むパケットを生成するステップ(S1710)と、前記生成されたパケットをデータ受信装置に送信するステップ(S1720)とを含み、前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含む。   As shown in FIG. 17, the data transmission method according to an embodiment of the present invention includes a step of generating a packet including a first subpacket and a second subpacket (S1710), and receiving the generated packet as data. Transmitting to the apparatus (S1720), wherein the first subpacket and the second subpacket include different audio data for the first content.

このとき、前記第1サブパケットは、非障害者のためのオーディオデータを含み、前記第2サブパケットは、視覚障害者のためのオーディオデータを含むことができる。   At this time, the first subpacket may include audio data for a non-disabled person, and the second subpacket may include audio data for a visually impaired person.

また、前記第1サブパケット及び前記第2サブパケットは、相異なる言語からなるオーディオデータを含むことができる。   The first subpacket and the second subpacket may include audio data in different languages.

また、前記第1サブパケットは、前記第2サブパケットに対するオーディオディスクリプションに該当するオーディオデータを含むことができる。   The first subpacket may include audio data corresponding to an audio description for the second subpacket.

また、前記パケットは、前記第1コンテンツと相異なる第2コンテンツに対するオーディオデータを含む第3サブパケットをさらに含むことができる。   The packet may further include a third subpacket including audio data for the second content different from the first content.

このとき、前記第1サブパケットが含むオーディオデータは、前記第1コンテンツに対する専用オーディオデータで、前記第3サブパケットが含むオーディオデータは、前記第2コンテンツに対する専用オーディオデータであり、前記第2サブパケットが含むオーディオデータは、前記第1コンテンツ及び前記第2コンテンツに対する共通オーディオデータでありうる。   At this time, the audio data included in the first subpacket is dedicated audio data for the first content, the audio data included in the third subpacket is dedicated audio data for the second content, and the second subpacket The audio data included in the packet may be common audio data for the first content and the second content.

また、前記パケットは、前記第2コンテンツに対するオーディオデータを含む第4サブパケットをさらに含み、前記第3サブパケットと前記第4サブパケットとは、相異なるオーディオデータを含むことができる。   The packet may further include a fourth subpacket including audio data for the second content, and the third subpacket and the fourth subpacket may include different audio data.

図18は、本発明の一実施の形態にかかるデータ受信方法のフローチャートである。   FIG. 18 is a flowchart of a data receiving method according to an embodiment of the present invention.

図18に示すように、本発明の他の一実施の形態にかかる、データ受信方法は、データ送信装置から第1サブパケット及び第2サブパケットを含むパケットを受信するステップ(S1810)と、前記受信された第1サブパケット及び前記第2サブパケットをパーシングするステップ(S1820)とを含み、前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含む。   As shown in FIG. 18, the data reception method according to another embodiment of the present invention includes a step of receiving a packet including a first subpacket and a second subpacket from a data transmission device (S1810), Parsing the received first sub-packet and the second sub-packet (S1820), wherein the first sub-packet and the second sub-packet include different audio data for the first content.

また、前記第1サブパケットは、非障害者のためのオーディオデータを含み、前記第2サブパケットは、視覚障害者のためのオーディオデータを含むことができる。   The first subpacket may include audio data for a non-disabled person, and the second subpacket may include audio data for a visually impaired person.

また、前記第1サブパケット及び前記第2サブパケットは、相異なる言語からなるオーディオデータを含むことができる。   The first subpacket and the second subpacket may include audio data in different languages.

このとき、前記第1サブパケットは、前記第2サブパケットに対するオーディオディスクリプションに該当するオーディオデータを含むことができる。   In this case, the first subpacket may include audio data corresponding to an audio description for the second subpacket.

また、前記パケットは、前記第1コンテンツと相異なる第2コンテンツに対するオーディオデータを含む第3サブパケットをさらに含むことができる。   The packet may further include a third subpacket including audio data for the second content different from the first content.

このとき、前記第1サブパケットが含むオーディオデータは、前記第1コンテンツに対する専用オーディオデータで、前記第3サブパケットが含むオーディオデータは、前記第2コンテンツに対する専用オーディオデータであり、前記第2サブパケットが含むオーディオデータは、前記第1コンテンツ及び前記第2コンテンツに対する共通オーディオデータでありうる。   At this time, the audio data included in the first subpacket is dedicated audio data for the first content, the audio data included in the third subpacket is dedicated audio data for the second content, and the second subpacket The audio data included in the packet may be common audio data for the first content and the second content.

また、前記パケットは、前記第2コンテンツに対するオーディオデータを含む第4サブパケットをさらに含み、前記第3サブパケットと前記第4サブパケットとは、相異なるオーディオデータを含むことができる。   The packet may further include a fourth subpacket including audio data for the second content, and the third subpacket and the fourth subpacket may include different audio data.

図19は、本発明の他の実施の形態にかかるデータ送信方法のフローチャートである。   FIG. 19 is a flowchart of a data transmission method according to another embodiment of the present invention.

図19に示すように、本発明の他の実施の形態にかかる、オーディオメタデータパケットを生成するステップ(S1910)と、前記生成されたオーディオメタデータパケットをデータ受信装置に送信するステップ(S1920)とを含み、前記生成されたオーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む。   As shown in FIG. 19, the step of generating an audio metadata packet according to another embodiment of the present invention (S1910), and the step of transmitting the generated audio metadata packet to a data receiving device (S1920). The header of the generated audio metadata packet includes a 3D audio field (3D Audio Field) indicating whether or not a 3D audio sample packet is transmitted.

また、前記生成されたオーディオメタデータパケットのヘッダは、送信されるオーディオストリームの個数情報を表すオーディオストリーム個数フィールド(Number Of Audio Stream Field)をさらに含むことができる。   In addition, the header of the generated audio metadata packet may further include an audio stream number field (Number Of Audio Stream Field) indicating the number information of audio streams to be transmitted.

また、前記生成されたオーディオメタデータパケットのヘッダは、送信される相異なるコンテンツの個数情報を表すビュー個数フィールド(Number Of Views Field)をさらに含むことができる。   In addition, the header of the generated audio metadata packet may further include a view number field (Number Of Views Field) indicating the number information of different contents to be transmitted.

また、前記生成されたオーディオメタデータパケットのペイロード(payload)は、マルチストリームオーディオサンプルパケット(Multi−stream Audio Sample Packet)またはマルチストリームワンビットオーディオサンプルパケット(Multi−stream One Bit Audio Sample Packet)のサブパケットに対するメタデータを表すオーディオメタデータディスクリプタフィールドを含むことができる。   Also, the payload of the generated audio metadata packet is a sub-stream of a multi-stream audio sample packet (Multi-stream Audio Sample Packet) or a multi-stream one-bit audio sample packet (Multi-stream One Bit Audio Sample Packet). An audio metadata descriptor field representing metadata for the packet can be included.

また、前記オーディオメタデータディスクリプタフィールドは、緊急状況放送があるかどうかを表す緊急チャネルフィールド(Emergency Channel Field)、マルチビューにおいて左眼または右眼映像に対応するオーディオデータを含むかどうかを表すマルチビューフィールド(Multivew Field)、オーディオデータに対する言語の識別有無を表す言語コード有効フィールド(Language Code Valid Field)、補助オーディオデータ有無を表す補助オーディオ有効フィールド(Supplemental Audio Valid Field)、メインオーディオデータと前記補助オーディオデータとのプレミックス有無を表すプレミックス補助オーディオフィールド(pre−mixed Supplemental Audio Field)、前記補助オーディオデータのタイプを表す補助オーディオタイプフィールド(Supplemental Audio Type Field)、及びオーディオデータに対する言語コードを表す言語コードフィールド(Language Code Field)のうち、少なくとも一つを含むことができる。   The audio metadata descriptor field includes an emergency channel field indicating whether there is an emergency situation broadcast, and a multi-view indicating whether audio data corresponding to a left-eye or right-eye image is included in the multi-view. A field (Multiview Field), a language code valid field (Language Code Valid Field) indicating whether or not language is identified for audio data, an auxiliary audio valid field (Supplemental Audio Valid Field) indicating the presence or absence of auxiliary audio data, main audio data and the auxiliary audio Premix auxiliary audio field (pre-) indicating presence / absence of premix with data It includes at least one of an “Implemented Supplemental Audio Field”, an auxiliary audio type field indicating the type of the auxiliary audio data (Supplemental Audio Type Field), and a language code field indicating the language code for the audio data (Language Code Field). Can do.

図20は、本発明の他の実施の形態にかかるデータ受信方法のフローチャートである。   FIG. 20 is a flowchart of a data receiving method according to another embodiment of the present invention.

図20に示すように、本発明の他の実施の形態にかかる、データ受信方法は、データ送信装置からオーディオメタデータパケットを受信するステップ(S2010)と、前記受信されたオーディオメタデータパケットをパーシングするステップ(S2020)とを含み、前記受信されたオーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む。   As shown in FIG. 20, a data receiving method according to another embodiment of the present invention includes a step of receiving an audio metadata packet from a data transmitting apparatus (S2010), and parsing the received audio metadata packet. And a header of the received audio metadata packet includes a 3D audio field (3D Audio Field) indicating whether or not a 3D audio sample packet is transmitted.

また、前記オーディオメタデータパケットのヘッダは、受信されるオーディオストリームの個数情報を表すオーディオストリーム個数フィールド(Number Of Audio Stream Field)をさらに含むことができる。   In addition, the header of the audio metadata packet may further include an audio stream number field (Number Of Audio Stream Field) indicating the number information of the received audio streams.

また、前記オーディオメタデータパケットのヘッダは、受信される相異なるコンテンツの個数情報を表すビュー個数フィールド(Number Of Views Field)をさらに含むことができる。   In addition, the header of the audio metadata packet may further include a view number field (Number Of Views Field) indicating the number information of different received contents.

また、前記オーディオメタデータパケットのペイロード(payload)は、マルチストリームオーディオサンプルパケット(Multi−stream Audio Sample Packet)またはマルチストリームワンビットオーディオサンプルパケット(Multi−stream One Bit Audio Sample Packet)のサブパケットに対するメタデータを表すオーディオメタデータディスクリプタフィールドを含むことができる。   In addition, the payload of the audio metadata packet is a meta for a sub-packet of a multi-stream audio sample packet (Multi-stream Audio Sample Packet) or a multi-stream one-bit audio sample packet (Multi-stream One Bit Audio Sample Packet). An audio metadata descriptor field representing the data can be included.

また、前記オーディオメタデータディスクリプタフィールドは、緊急状況放送があるかどうかを表す緊急チャネルフィールド(Emergency Channel Field)、マルチビューにおいて左眼または右眼映像に対応するオーディオデータを含むかどうかを表すマルチビューフィールド(Multivew Field)、オーディオデータに対する言語の識別有無を表す言語コード有効フィールド(Language Code Valid Field)、補助オーディオデータ有無を表す補助オーディオ有効フィールド(Supplemental Audio Valid Field)、メインオーディオデータと前記補助オーディオデータとのプレミックス有無を表すプレミックス補助オーディオフィールド(pre−mixed Supplemental Audio Field)、前記補助オーディオデータのタイプを表す補助オーディオタイプフィールド(Supplemental Audio Type Field)、及びオーディオデータに対する言語コードを表す言語コードフィールド(Language Code Field)のうち、少なくとも一つを含むことができる。   The audio metadata descriptor field includes an emergency channel field indicating whether there is an emergency situation broadcast, and a multi-view indicating whether audio data corresponding to a left-eye or right-eye image is included in the multi-view. A field (Multiview Field), a language code valid field (Language Code Valid Field) indicating whether or not language is identified for audio data, an auxiliary audio valid field (Supplemental Audio Valid Field) indicating the presence or absence of auxiliary audio data, main audio data and the auxiliary audio Premix auxiliary audio field (pre-) indicating presence / absence of premix with data It includes at least one of an “Implemented Supplemental Audio Field”, an auxiliary audio type field indicating the type of the auxiliary audio data (Supplemental Audio Type Field), and a language code field indicating the language code for the audio data (Language Code Field). Can do.

図21は、本発明のさらに他の実施の形態にかかるデータ送信方法のフローチャートである。   FIG. 21 is a flowchart of a data transmission method according to still another embodiment of the present invention.

図21に示すように、本発明のさらに他の実施の形態にかかる、データ送信方法は、オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を生成するステップ(S2110)と、データ受信装置に前記ディスプレイ識別情報を送信するステップ(S2120)とを含み、前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む。   As shown in FIG. 21, a data transmission method according to still another embodiment of the present invention includes generating display identification information including feature information supported by a sink device for audio data (S2110), and data Transmitting the display identification information to a receiving device (S2120), wherein the display identification information includes a main / auxiliary audio characteristic field representing information on characteristics of main audio and auxiliary audio supported by the sink device.

また、前記メイン/補助オーディオ特性フィールドは、前記シンク装置がメインオーディオと補助オーディオとの合成を支援するかどうかを表すオーディオミックスフィールド(Audio Mix Field)、前記シンク装置が補助オーディオを支援するかどうかを表す補助オーディオ支援フィールド(Supplemental Audio Support Field)、前記シンク装置が複数の言語からなるオーディオデータを支援するかどうかを表す言語支援フィールド(Language Support Field)、前記シンク装置がマルチビューコンテンツのためのマルチストリームオーディオデータを支援するかどうかを表すマルチビューオーディオ支援フィールド(Multiview Audio Support Field)、前記シンク装置がハンドリングできる最大オーディオストリームの個数を表す最大ストリームカウントフィールド(Maximum Stream Count Field)、及び3Dオーディオディスクリプタの個数を表すオーディオディスクリプタ個数フィールド(Number Of Audio Descriptor Field)のうち、少なくとも一つを含むことができる。   The main / auxiliary audio characteristic field includes an audio mix field (Audio Mix Field) indicating whether the sink device supports synthesis of main audio and auxiliary audio, and whether the sink device supports auxiliary audio. An auxiliary audio support field (Language Audio Support Field) indicating whether or not the sink device supports audio data in a plurality of languages, and the sink device is used for multi-view content. Multi-view audio support field indicating whether to support multi-stream audio data (Multiview Audio Support) Field), a maximum stream count field (Maximum Stream Count Field) indicating the number of maximum audio streams that can be handled by the sink device, and an audio descriptor number field (Number Of Audio Descriptor Field) indicating the number of 3D audio descriptors. One can be included.

また、前記ディスプレイ識別情報は、前記シンク装置が緊急状況放送受信及び処理を支援するかどうかを表す緊急チャネルフィールド(Emergency Channel Field)をさらに含むことができる。   The display identification information may further include an emergency channel field indicating whether the sink device supports emergency situation broadcast reception and processing.

図22は、本発明のさらに他の実施の形態にかかるデータ受信方法のフローチャートである。   FIG. 22 is a flowchart of a data receiving method according to still another embodiment of the present invention.

図22に示すように、本発明のさらに他の実施の形態にかかるデータ受信方法は、データ送信装置から、オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を受信するステップ(S2210)と、前記受信されたディスプレイ識別情報を分析するステップ(S2220)とを含み、前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む。   As shown in FIG. 22, the data receiving method according to another embodiment of the present invention includes receiving display identification information including feature information supported by the sink device regarding audio data from the data transmitting device (S2210). ) And analyzing the received display identification information (S2220), the display identification information being a main / auxiliary audio characteristic field representing information on characteristics of main audio and auxiliary audio supported by the sink device including.

また、前記メイン/補助オーディオ特性フィールドは、前記シンク装置がメインオーディオと補助オーディオとの合成を支援するかどうかを表すオーディオミックスフィールド(Audio Mix Field)、前記シンク装置が補助オーディオを支援するかどうかを表す補助オーディオ支援フィールド(Supplemental Audio Support Field)、前記シンク装置が複数の言語からなるオーディオデータを支援するかどうかを表す言語支援フィールド(Language Support Field)、前記シンク装置がマルチビューコンテンツのためのマルチストリームオーディオデータを支援するかどうかを表すマルチビューオーディオ支援フィールド(Multiview Audio Support Field)、前記シンク装置がハンドリングできる最大オーディオストリームの個数を表す最大ストリームカウントフィールド(Maximum Stream Count Field)、及び3Dオーディオディスクリプタの個数を表すオーディオディスクリプタ個数フィールド(Number Of Audio Descriptor Field)のうち、少なくとも一つを含むことができる。   The main / auxiliary audio characteristic field includes an audio mix field (Audio Mix Field) indicating whether the sink device supports synthesis of main audio and auxiliary audio, and whether the sink device supports auxiliary audio. An auxiliary audio support field (Language Audio Support Field) indicating whether or not the sink device supports audio data in a plurality of languages, and the sink device is used for multi-view content. Multi-view audio support field indicating whether to support multi-stream audio data (Multiview Audio Support) Field), a maximum stream count field (Maximum Stream Count Field) indicating the number of maximum audio streams that can be handled by the sink device, and an audio descriptor number field (Number Of Audio Descriptor Field) indicating the number of 3D audio descriptors. One can be included.

また、前記ディスプレイ識別情報は、前記シンク装置が緊急状況放送受信及び処理を支援するかどうかを表す緊急チャネルフィールド(Emergency Channel Field)をさらに含むことができる。   The display identification information may further include an emergency channel field indicating whether the sink device supports emergency situation broadcast reception and processing.

以上では、本発明の実施の形態について図示し説明したが、本発明は、上述した特定の実施の形態に限定されるものではなく、請求の範囲で請求する本発明の要旨から逸脱せずに当該発明が属する技術分野における通常の知識を有した者によって多様な変形実施が可能なことはもちろんで、このような変形実施は、本発明の技術的思想や展望から個別的に理解されてはならない。   While the embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and does not depart from the gist of the present invention claimed in the scope of claims. Various modifications can be made by those having ordinary knowledge in the technical field to which the invention belongs, and such modifications are not individually understood from the technical idea and perspective of the present invention. Don't be.

Claims (39)

データ送信装置であって、
第1サブパケット及び第2サブパケットを含むパケットを生成するパケット生成部と、
前記生成されたパケットをデータ受信装置に送信する送信部とを備え、
前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含むデータ送信装置。
A data transmission device,
A packet generator that generates a packet including a first subpacket and a second subpacket;
A transmission unit that transmits the generated packet to a data reception device;
The data transmission device, wherein the first subpacket and the second subpacket include different audio data for the first content.
前記第1サブパケットは、非障害者のためのオーディオデータを含み、
前記第2サブパケットは、視覚障害者のためのオーディオデータを含むことを特徴とする請求項1に記載のデータ送信装置。
The first subpacket includes audio data for a non-disabled person;
The data transmission apparatus according to claim 1, wherein the second subpacket includes audio data for a visually impaired person.
前記第1サブパケット及び前記第2サブパケットは、相異なる言語からなるオーディオデータを含むことを特徴とする請求項1に記載のデータ送信装置。   The data transmitting apparatus according to claim 1, wherein the first subpacket and the second subpacket include audio data in different languages. 前記第1サブパケットは、前記第2サブパケットに対するオーディオディスクリプションに該当するオーディオデータを含むことを特徴とする請求項1に記載のデータ送信装置。   The data transmission apparatus according to claim 1, wherein the first subpacket includes audio data corresponding to an audio description for the second subpacket. 前記パケットは、前記第1コンテンツと相異なる第2コンテンツに対するオーディオデータを含む第3サブパケットをさらに含むことを特徴とする請求項1に記載のデータ送信装置。   The data transmission apparatus according to claim 1, wherein the packet further includes a third subpacket including audio data for the second content different from the first content. 前記第1サブパケットが含むオーディオデータは、前記第1コンテンツに対する専用オーディオデータで、
前記第3サブパケットが含むオーディオデータは、前記第2コンテンツに対する専用オーディオデータであり、
前記第2サブパケットが含むオーディオデータは、前記第1コンテンツ及び前記第2コンテンツに対する共通オーディオデータであることを特徴とする請求項5に記載のデータ送信装置。
The audio data included in the first subpacket is dedicated audio data for the first content,
The audio data included in the third subpacket is dedicated audio data for the second content,
6. The data transmission apparatus according to claim 5, wherein the audio data included in the second subpacket is common audio data for the first content and the second content.
前記パケットは、前記第2コンテンツに対するオーディオデータを含む第4サブパケットをさらに含み、
前記第3サブパケットと前記第4サブパケットとは、相異なるオーディオデータを含む、請求項5に記載のデータ送信装置。
The packet further includes a fourth subpacket including audio data for the second content,
The data transmission device according to claim 5, wherein the third subpacket and the fourth subpacket include different audio data.
データ受信装置であって、
データ送信装置から第1サブパケット及び第2サブパケットを含むパケットを受信する受信部と、
前記受信された第1サブパケット及び前記第2サブパケットをパーシングするパーシング部とを備え、
前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含む、データ受信装置。
A data receiving device,
A receiving unit for receiving a packet including the first sub-packet and the second sub-packet from the data transmitting device;
A parsing unit for parsing the received first subpacket and the second subpacket,
The data receiving apparatus, wherein the first subpacket and the second subpacket include different audio data for the first content.
前記第1サブパケットは、非障害者のためのオーディオデータを含み、
前記第2サブパケットは、視覚障害者のためのオーディオデータを含むことを特徴とする請求項8に記載のデータ受信装置。
The first subpacket includes audio data for a non-disabled person;
The data receiving apparatus according to claim 8, wherein the second subpacket includes audio data for a visually impaired person.
前記第1サブパケット及び前記第2サブパケットは、相異なる言語からなるオーディオデータを含むことを特徴とする請求項8に記載のデータ受信装置。   The data receiving apparatus according to claim 8, wherein the first subpacket and the second subpacket include audio data in different languages. 前記第1サブパケットは、前記第2サブパケットに対するオーディオディスクリプションに該当するオーディオデータを含むことを特徴とする請求項8に記載のデータ受信装置。   The data receiving apparatus according to claim 8, wherein the first subpacket includes audio data corresponding to an audio description for the second subpacket. 前記パケットは、前記第1コンテンツと相異なる第2コンテンツに対するオーディオデータを含む第3サブパケットをさらに含むことを特徴とする請求項8に記載のデータ受信装置。   The data receiving apparatus according to claim 8, wherein the packet further includes a third subpacket including audio data for the second content different from the first content. 前記第1サブパケットが含むオーディオデータは、前記第1コンテンツに対する専用オーディオデータで、
前記第3サブパケットが含むオーディオデータは、前記第2コンテンツに対する専用オーディオデータであり、
前記第2サブパケットが含むオーディオデータは、前記第1コンテンツ及び前記第2コンテンツに対する共通オーディオデータであることを特徴とする請求項12に記載のデータ受信装置。
The audio data included in the first subpacket is dedicated audio data for the first content,
The audio data included in the third subpacket is dedicated audio data for the second content,
The data receiving apparatus according to claim 12, wherein the audio data included in the second subpacket is common audio data for the first content and the second content.
前記パケットは、前記第2コンテンツに対するオーディオデータを含む第4サブパケットをさらに含み、
前記第3サブパケットと前記第4サブパケットとは、相異なるオーディオデータを含む、請求項12に記載のデータ受信装置。
The packet further includes a fourth subpacket including audio data for the second content,
The data receiving apparatus according to claim 12, wherein the third subpacket and the fourth subpacket include different audio data.
データ送受信システムであって、
第1サブパケット及び第2サブパケットを含むパケットを生成してデータ受信装置に送信するデータ送信装置と、
前記データ送信装置から前記パケットを受信するデータ受信装置とを備え、
前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含むデータ送受信システム。
A data transmission / reception system,
A data transmission device that generates a packet including the first subpacket and the second subpacket and transmits the packet to the data reception device;
A data receiving device for receiving the packet from the data transmitting device;
The data transmission / reception system, wherein the first subpacket and the second subpacket include different audio data for the first content.
データ送信装置であって、
オーディオメタデータパケットを生成するパケット生成部と、
前記生成されたオーディオメタデータパケットをデータ受信装置に送信する送信部とを備え、
前記生成されたオーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む、データ送信装置。
A data transmission device,
A packet generator for generating audio metadata packets;
A transmission unit that transmits the generated audio metadata packet to a data reception device;
The header of the generated audio metadata packet includes a 3D audio field (3D Audio Field) indicating whether or not a 3D audio sample packet is transmitted.
前記生成されたオーディオメタデータパケットのヘッダは、送信されるオーディオストリームの個数情報を表すオーディオストリーム個数フィールド(Number Of Audio Stream Field)をさらに含むことを特徴とする請求項16に記載のデータ送信装置。   The data transmitting apparatus of claim 16, wherein the header of the generated audio metadata packet further includes an audio stream number field (Number Of Audio Stream Field) indicating the number information of the number of audio streams to be transmitted. . 前記生成されたオーディオメタデータパケットのヘッダは、
送信される相異なるコンテンツの個数情報を表すビュー個数フィールド(Number Of Views Field)をさらに含むことを特徴とする請求項16に記載のデータ送信装置。
The header of the generated audio metadata packet is:
The data transmission apparatus of claim 16, further comprising a view number field (Number Of Views Field) representing the number information of different contents to be transmitted.
前記生成されたオーディオメタデータパケットのペイロード(payload)は、
マルチストリームオーディオサンプルパケット(Multi−stream Audio Sample Packet)またはマルチストリームワンビットオーディオサンプルパケット(Multi−stream One Bit Audio Sample Packet)のサブパケットに対するメタデータを表すオーディオメタデータディスクリプタフィールドを含むことを特徴とする請求項16に記載のデータ送信装置。
The payload of the generated audio metadata packet is:
It includes an audio metadata descriptor field representing metadata for a sub-packet of a multi-stream audio sample packet (Multi-stream Audio Sample Packet) or a multi-stream one-bit audio sample packet (Multi-stream One Bit Audio Sample Packet). The data transmission device according to claim 16.
前記オーディオメタデータディスクリプタフィールドは、
緊急状況放送があるかどうかを表す緊急チャネルフィールド(Emergency Channel Field)、マルチビューにおいて左眼または右眼映像に対応するオーディオデータを含むかどうかを表すマルチビューフィールド(Multivew Field)、オーディオデータに対する言語の識別有無を表す言語コード有効フィールド(Language Code Valid Field)、補助オーディオデータ有無を表す補助オーディオ有効フィールド(Supplemental Audio Valid Field)、メインオーディオデータと前記補助オーディオデータとのプレミックス有無を表すプレミックス補助オーディオフィールド(pre−mixed Supplemental Audio Field)、前記補助オーディオデータのタイプを表す補助オーディオタイプフィールド(Supplemental Audio Type Field)、及びオーディオデータに対する言語コードを表す言語コードフィールド(Language Code Field)のうち、少なくとも一つを含むことを特徴とする請求項19に記載のデータ送信装置。
The audio metadata descriptor field is:
Emergency channel field (Emergency Channel Field) indicating whether there is an emergency status broadcast, Multi-view field (Multiview Field) indicating whether audio data corresponding to the left-eye or right-eye video is included in the multi-view, language for audio data Language code valid field indicating presence / absence of identification, auxiliary audio valid field indicating presence / absence of auxiliary audio data, premix indicating presence / absence of pre-mixing of main audio data and auxiliary audio data Auxiliary audio field (pre-mixed Supplemental Audio Field), The auxiliary audio type field (Supplemental Audio Type Field) indicating the type of auxiliary audio data and the language code field (Language Code Field) indicating the language code for the audio data are included. The data transmission device described in 1.
データ受信装置であって、
データ送信装置からオーディオメタデータパケットを受信する受信部と、
前記受信されたオーディオメタデータパケットをパーシングするパーシング部とを備え、
前記受信されたオーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む、データ受信装置。
A data receiving device,
A receiving unit for receiving an audio metadata packet from the data transmitting device;
A parsing unit for parsing the received audio metadata packet;
A header of the received audio metadata packet includes a 3D audio field indicating whether or not a 3D audio sample packet is transmitted.
前記オーディオメタデータパケットのヘッダは、受信されるオーディオストリームの個数情報を表すオーディオストリーム個数フィールド(Number Of Audio Stream Field)をさらに含むことを特徴とする請求項21に記載のデータ受信装置。   The data receiving apparatus of claim 21, wherein the header of the audio metadata packet further includes an audio stream number field (Number Of Audio Stream Field) indicating the number information of the received audio streams. 前記オーディオメタデータパケットのヘッダは、
受信される相異なるコンテンツの個数情報を表すビュー個数フィールド(Number Of Views Field)をさらに含むことを特徴とする請求項21に記載のデータ受信装置。
The header of the audio metadata packet is
The data receiving apparatus of claim 21, further comprising a view number field (Number Of Views Field) representing the number information of different contents received.
前記オーディオメタデータパケットのペイロード(payload)は、
マルチストリームオーディオサンプルパケット(Multi−stream Audio Sample Packet)またはマルチストリームワンビットオーディオサンプルパケット(Multi−stream One Bit Audio Sample Packet)のサブパケットに対するメタデータを表すオーディオメタデータディスクリプタフィールドを含むことを特徴とする請求項21に記載のデータ受信装置。
The payload of the audio metadata packet is
It includes an audio metadata descriptor field representing metadata for a sub-packet of a multi-stream audio sample packet (Multi-stream Audio Sample Packet) or a multi-stream one-bit audio sample packet (Multi-stream One Bit Audio Sample Packet). The data receiving device according to claim 21.
前記オーディオメタデータディスクリプタフィールドは、
緊急状況放送があるかどうかを表す緊急チャネルフィールド(Emergency Channel Field)、マルチビューにおいて左眼または右眼映像に対応するオーディオデータを含むかどうかを表すマルチビューフィールド(Multivew Field)、オーディオデータに対する言語の識別有無を表す言語コード有効フィールド(Language Code Valid Field)、補助オーディオデータ有無を表す補助オーディオ有効フィールド(Supplemental Audio Valid Field)、メインオーディオデータと前記補助オーディオデータとのプレミックス有無を表すプレミックス補助オーディオフィールド(pre−mixed Supplemental Audio Field)、前記補助オーディオデータのタイプを表す補助オーディオタイプフィールド(Supplemental Audio Type Field)、及びオーディオデータに対する言語コードを表す言語コードフィールド(Language Code Field)のうち、少なくとも一つを含むことを特徴とする請求項24に記載のデータ受信装置。
The audio metadata descriptor field is:
Emergency channel field (Emergency Channel Field) indicating whether there is an emergency status broadcast, Multi-view field (Multiview Field) indicating whether audio data corresponding to the left-eye or right-eye video is included in the multi-view, language for audio data Language code valid field indicating presence / absence of identification, auxiliary audio valid field indicating presence / absence of auxiliary audio data, premix indicating presence / absence of pre-mixing of main audio data and auxiliary audio data Auxiliary audio field (pre-mixed Supplemental Audio Field), 25. At least one of an auxiliary audio type field (Supplemental Audio Type Field) representing a type of auxiliary audio data and a language code field (Language Code Field) representing a language code for the audio data is included. The data receiving device described in 1.
データ送受信システムであって、
オーディオメタデータパケットを生成してデータ受信装置に送信するデータ送信装置と、
前記データ送信装置から前記オーディオメタデータパケットを受信するデータ受信装置とを備え、
前記オーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含むデータ送受信システム。
A data transmission / reception system,
A data transmission device that generates and transmits an audio metadata packet to a data reception device;
A data receiving device for receiving the audio metadata packet from the data transmitting device;
The header of the audio metadata packet includes a 3D audio field (3D Audio Field) indicating whether or not a 3D audio sample packet is transmitted.
データ送信装置であって、
オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を生成する生成部と、
データ受信装置に前記ディスプレイ識別情報を送信する送信部とを備え、
前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む、データ送信装置。
A data transmission device,
A generating unit for generating display identification information including feature information supported by the sink device for audio data;
A transmission unit for transmitting the display identification information to a data receiving device,
The data transmission device, wherein the display identification information includes a main / auxiliary audio characteristic field representing information on characteristics of main audio and auxiliary audio supported by the sink device.
前記メイン/補助オーディオ特性フィールドは、
前記シンク装置がメインオーディオと補助オーディオとの合成を支援するかどうかを表すオーディオミックスフィールド(Audio Mix Field)、前記シンク装置が補助オーディオを支援するかどうかを表す補助オーディオ支援フィールド(Supplemental Audio Support Field)、前記シンク装置が複数の言語からなるオーディオデータを支援するかどうかを表す言語支援フィールド(Language Support Field)、前記シンク装置がマルチビューコンテンツのためのマルチストリームオーディオデータを支援するかどうかを表すマルチビューオーディオ支援フィールド(Multiview Audio Support Field)、前記シンク装置がハンドリングできる最大オーディオストリームの個数を表す最大ストリームカウントフィールド(Maximum Stream Count Field)、及び3Dオーディオディスクリプタの個数を表すオーディオディスクリプタ個数フィールド(Number Of Audio Descriptor Field)のうち、少なくとも一つを含むことを特徴とする請求項27に記載のデータ送信装置。
The main / auxiliary audio characteristics field is:
An audio mix field (Audio Mix Field) indicating whether the sink device supports synthesis of main audio and auxiliary audio, or an auxiliary audio support field (Supplemental Audio Support Field) indicating whether the sink device supports auxiliary audio. ), A language support field indicating whether the sink device supports audio data in a plurality of languages, and indicates whether the sink device supports multi-stream audio data for multi-view content. Multiview Audio Support Field (Multiview Audio Support Field), the maximum option that the sink device can handle It includes at least one of a maximum stream count field (Maximum Stream Count Field) representing the number of audio streams and an audio descriptor number field (Number Of Audio Descriptor Field) representing the number of 3D audio descriptors. The data transmission device according to claim 27.
前記ディスプレイ識別情報は、
前記シンク装置が緊急状況放送受信及び処理を支援するかどうかを表す緊急チャネルフィールド(Emergency Channel Field)をさらに含むことを特徴とする請求項27に記載のデータ送信装置。
The display identification information is
28. The data transmission apparatus of claim 27, further comprising an emergency channel field indicating whether the sink device supports emergency situation broadcast reception and processing.
データ受信装置であって、
データ送信装置から、オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を受信する受信部と、
前記受信されたディスプレイ識別情報を分析する分析部とを備え、
前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む、データ受信装置。
A data receiving device,
A receiver for receiving display identification information including feature information supported by the sink device with respect to audio data from the data transmission device;
An analysis unit for analyzing the received display identification information,
The data receiving apparatus, wherein the display identification information includes a main / auxiliary audio characteristic field representing information on characteristics of main audio and auxiliary audio supported by the sink apparatus.
前記メイン/補助オーディオ特性フィールドは、
前記シンク装置がメインオーディオと補助オーディオとの合成を支援するかどうかを表すオーディオミックスフィールド(Audio Mix Field)、前記シンク装置が補助オーディオを支援するかどうかを表す補助オーディオ支援フィールド(Supplemental Audio Support Field)、前記シンク装置が複数の言語からなるオーディオデータを支援するかどうかを表す言語支援フィールド(Language Support Field)、前記シンク装置がマルチビューコンテンツのためのマルチストリームオーディオデータを支援するかどうかを表すマルチビューオーディオ支援フィールド(Multiview Audio Support Field)、前記シンク装置がハンドリングできる最大オーディオストリームの個数を表す最大ストリームカウントフィールド(Maximum Stream Count Field)、及び3Dオーディオディスクリプタの個数を表すオーディオディスクリプタ個数フィールド(Number Of Audio Descriptor Field)のうち、少なくとも一つを含むことを特徴とする請求項30に記載のデータ受信装置。
The main / auxiliary audio characteristics field is:
An audio mix field (Audio Mix Field) indicating whether the sink device supports synthesis of main audio and auxiliary audio, or an auxiliary audio support field (Supplemental Audio Support Field) indicating whether the sink device supports auxiliary audio. ), A language support field indicating whether the sink device supports audio data in a plurality of languages, and indicates whether the sink device supports multi-stream audio data for multi-view content. Multiview Audio Support Field (Multiview Audio Support Field), the maximum option that the sink device can handle It includes at least one of a maximum stream count field (Maximum Stream Count Field) representing the number of audio streams and an audio descriptor number field (Number Of Audio Descriptor Field) representing the number of 3D audio descriptors. The data receiving device according to claim 30.
前記ディスプレイ識別情報は、
前記シンク装置が緊急状況放送受信及び処理を支援するかどうかを表す緊急チャネルフィールド(Emergency Channel Field)をさらに含むことを特徴とする請求項30に記載のデータ受信装置。
The display identification information is
The data receiving device of claim 30, further comprising an emergency channel field indicating whether the sink device supports emergency situation broadcast reception and processing.
データ送受信システムであって、
オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を生成して、データ受信装置に送信するデータ送信装置と、
前記データ送信装置から前記ディスプレイ識別情報を受信して分析するデータ受信装置とを備え、
前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む、データ送受信システム。
A data transmission / reception system,
A data transmission device that generates display identification information including feature information supported by the sink device with respect to audio data and transmits the display identification information to the data reception device;
A data receiving device for receiving and analyzing the display identification information from the data transmitting device,
The data transmission / reception system, wherein the display identification information includes a main / auxiliary audio characteristic field representing information on characteristics of main audio and auxiliary audio supported by the sink device.
データ送信方法であって、
第1サブパケット及び第2サブパケットを含むパケットを生成するステップと、
前記生成されたパケットをデータ受信装置に送信するステップとを含み、
前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含むデータ送信方法。
A data transmission method,
Generating a packet including a first subpacket and a second subpacket;
Transmitting the generated packet to a data receiving device,
The data transmission method, wherein the first subpacket and the second subpacket include different audio data for the first content.
データ受信方法であって、
データ送信装置から第1サブパケット及び第2サブパケットを含むパケットを受信するステップと、
前記受信された第1サブパケット及び前記第2サブパケットをパーシングするステップとを含み、
前記第1サブパケット及び前記第2サブパケットは、第1コンテンツに対する相異なるオーディオデータを含む、データ受信方法。
A data receiving method,
Receiving a packet including a first subpacket and a second subpacket from the data transmitting device;
Parsing the received first subpacket and the second subpacket,
The data reception method, wherein the first subpacket and the second subpacket include different audio data for the first content.
データ送信方法であって、
オーディオメタデータパケットを生成するステップと、
前記生成されたオーディオメタデータパケットをデータ受信装置に送信するステップとを含み、
前記生成されたオーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む、データ送信方法。
A data transmission method,
Generating an audio metadata packet;
Transmitting the generated audio metadata packet to a data receiving device,
A data transmission method, wherein a header of the generated audio metadata packet includes a 3D audio field (3D Audio Field) indicating whether or not a 3D audio sample packet is transmitted.
データ受信方法であって、
データ送信装置からオーディオメタデータパケットを受信するステップと、
前記受信されたオーディオメタデータパケットをパーシングするステップとを含み、
前記受信されたオーディオメタデータパケットのヘッダ(header)は、3Dオーディオサンプルパケットの送信有無を表す3Dオーディオフィールド(3D Audio Field)を含む、データ受信方法。
A data receiving method,
Receiving an audio metadata packet from the data transmitting device;
Parsing the received audio metadata packet;
A method of receiving data, wherein a header of the received audio metadata packet includes a 3D audio field (3D Audio Field) indicating whether or not a 3D audio sample packet is transmitted.
データ送信方法であって、
オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を生成するステップと、
データ受信装置に前記ディスプレイ識別情報を送信するステップとを含み、
前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む、データ送信方法。
A data transmission method,
Generating display identification information including feature information supported by the sink device for audio data;
Transmitting the display identification information to a data receiving device,
The data transmission method, wherein the display identification information includes a main / auxiliary audio characteristic field representing information on characteristics of main audio and auxiliary audio supported by the sink device.
データ受信方法であって、
データ送信装置から、オーディオデータに関してシンク装置により支援される特徴情報を含むディスプレイ識別情報を受信するステップと、
前記受信されたディスプレイ識別情報を分析するステップとを含み、
前記ディスプレイ識別情報は、前記シンク装置が支援するメインオーディオ及び補助オーディオの特性に対する情報を表すメイン/補助オーディオ特性フィールドを含む、データ受信方法。
A data receiving method,
Receiving display identification information including feature information supported by the sink device for audio data from the data transmitting device;
Analyzing the received display identification information;
The data reception method, wherein the display identification information includes a main / auxiliary audio characteristic field representing information on characteristics of main audio and auxiliary audio supported by the sink device.
JP2015562939A 2013-03-15 2014-03-17 Data transmission apparatus, data reception apparatus, data transmission / reception system, data transmission method and data reception method Expired - Fee Related JP6514649B2 (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361789803P 2013-03-15 2013-03-15
US61/789,803 2013-03-15
US201361802807P 2013-03-18 2013-03-18
US61/802,807 2013-03-18
KR1020140025653A KR102180826B1 (en) 2013-03-15 2014-03-04 Data transmitting appratus, data receiving apparatus, data tranceiving system, method for transmitting data and method for receiving data
KR10-2014-0025653 2014-03-04
PCT/KR2014/002230 WO2014142627A1 (en) 2013-03-15 2014-03-17 Data transmitting apparatus, data receiving apparatus, data transceiving system, method for transmitting data, and method for receiving data

Publications (2)

Publication Number Publication Date
JP2016513930A true JP2016513930A (en) 2016-05-16
JP6514649B2 JP6514649B2 (en) 2019-05-22

Family

ID=51758637

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015562938A Expired - Fee Related JP6514648B2 (en) 2013-03-15 2014-03-17 Data transmission device, data reception device, and data transmission / reception system
JP2015562939A Expired - Fee Related JP6514649B2 (en) 2013-03-15 2014-03-17 Data transmission apparatus, data reception apparatus, data transmission / reception system, data transmission method and data reception method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015562938A Expired - Fee Related JP6514648B2 (en) 2013-03-15 2014-03-17 Data transmission device, data reception device, and data transmission / reception system

Country Status (3)

Country Link
JP (2) JP6514648B2 (en)
KR (2) KR102201826B1 (en)
TW (2) TWI625056B (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016129904A1 (en) * 2015-02-10 2016-08-18 엘지전자 주식회사 Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method, and broadcast signal reception method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08331552A (en) * 1995-05-31 1996-12-13 Alpine Electron Inc Voice signal processing unit for bs tuner
JPH09149399A (en) * 1995-11-21 1997-06-06 Matsushita Electric Ind Co Ltd Data transmission system
US20070130613A1 (en) * 2005-12-05 2007-06-07 Samsung Electronics Co., Ltd. Method and apparatus for storing digital broadcasting signal
JP2009253414A (en) * 2008-04-02 2009-10-29 Nec Corp Content delivery system, repeater, terminal device, content delivery method, program and recording medium
JP2010200087A (en) * 2009-02-26 2010-09-09 Funai Electric Co Ltd Video apparatus
EP2257051A1 (en) * 2008-03-27 2010-12-01 Panasonic Corporation Digital broadcast receiver and digital broadcast reception method
JP2012151688A (en) * 2011-01-19 2012-08-09 Canon Inc Video reproduction device and method of controlling the same, program, and storage medium
US20140118616A1 (en) * 2012-10-26 2014-05-01 Cox Communications, Inc. Systems and Methods of Video Delivery to a Multilingual Audience

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3437371B2 (en) * 1996-03-22 2003-08-18 パイオニア株式会社 Information recording device and information reproducing device
CN100435569C (en) * 1999-07-14 2008-11-19 松下电器产业株式会社 Apparatus for providing information, information receiver and storage medium
US8046792B2 (en) * 2002-03-20 2011-10-25 Tvworks, Llc Multi-channel audio enhancement for television
US7227899B2 (en) * 2003-08-13 2007-06-05 Skystream Networks Inc. Method and system for re-multiplexing of content-modified MPEG-2 transport streams using interpolation of packet arrival times
KR101375067B1 (en) * 2005-08-09 2014-03-17 파나소닉 주식회사 Recording medium, playback appatatus, method and program
JP2007281716A (en) * 2006-04-04 2007-10-25 Sony Corp Wireless moving picture transmission system, wireless moving picture transmission method, wireless moving picture transmission apparatus, wireless moving picture transmission method, and computer program thereof, wireless moving picture receiving apparatus, wireless moving picture receiving method, and computer program thereof
JP2008005112A (en) * 2006-06-21 2008-01-10 Matsushita Electric Ind Co Ltd Stream encoder and stream decoder
TWI420504B (en) * 2007-03-19 2013-12-21 Cyberlink Corp Method and related system capable of multiple displays
US8744337B2 (en) * 2007-06-18 2014-06-03 Qualcomm Incorporated Apparatus and methods of enhancing radio programming
KR100942142B1 (en) * 2007-10-11 2010-02-16 한국전자통신연구원 Method and apparatus for transmitting and receiving of the object based audio contents
EP2359599A1 (en) * 2008-10-31 2011-08-24 Thomson Licensing Method, apparatus and system for providing supplemental audio/video content
JP2012010311A (en) * 2010-05-26 2012-01-12 Sony Corp Transmitter, transmission method, receiver, reception method and transmission/reception system
KR20120016407A (en) * 2010-08-16 2012-02-24 엘지전자 주식회사 Operating method of display system outputting audio description for the visually impaired and display system enabling of the method
JP2012049934A (en) * 2010-08-30 2012-03-08 Hitachi Consumer Electronics Co Ltd Transmission system
JP2012060205A (en) * 2010-09-06 2012-03-22 Hitachi Consumer Electronics Co Ltd Display system, display device, and repeating device
EP2451196A1 (en) * 2010-11-05 2012-05-09 Thomson Licensing Method and apparatus for generating and for decoding sound field data including ambisonics sound field data of an order higher than three
US9398322B2 (en) * 2011-04-27 2016-07-19 Time Warner Cable Enterprises Llc Multi-lingual audio streaming
JP2012253439A (en) * 2011-05-31 2012-12-20 Kddi Corp Multimedia device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08331552A (en) * 1995-05-31 1996-12-13 Alpine Electron Inc Voice signal processing unit for bs tuner
JPH09149399A (en) * 1995-11-21 1997-06-06 Matsushita Electric Ind Co Ltd Data transmission system
US20070130613A1 (en) * 2005-12-05 2007-06-07 Samsung Electronics Co., Ltd. Method and apparatus for storing digital broadcasting signal
EP2257051A1 (en) * 2008-03-27 2010-12-01 Panasonic Corporation Digital broadcast receiver and digital broadcast reception method
JP2009253414A (en) * 2008-04-02 2009-10-29 Nec Corp Content delivery system, repeater, terminal device, content delivery method, program and recording medium
JP2010200087A (en) * 2009-02-26 2010-09-09 Funai Electric Co Ltd Video apparatus
JP2012151688A (en) * 2011-01-19 2012-08-09 Canon Inc Video reproduction device and method of controlling the same, program, and storage medium
US20140118616A1 (en) * 2012-10-26 2014-05-01 Cox Communications, Inc. Systems and Methods of Video Delivery to a Multilingual Audience

Also Published As

Publication number Publication date
TW201438460A (en) 2014-10-01
KR102201826B1 (en) 2021-01-12
KR20140115245A (en) 2014-09-30
TW201442494A (en) 2014-11-01
JP2016515352A (en) 2016-05-26
TWI625056B (en) 2018-05-21
KR20140115247A (en) 2014-09-30
JP6514648B2 (en) 2019-05-15
KR102180826B1 (en) 2020-11-20
TWI666931B (en) 2019-07-21
JP6514649B2 (en) 2019-05-22

Similar Documents

Publication Publication Date Title
US10356484B2 (en) Data transmitting apparatus, data receiving apparatus, data transceiving system, method for transmitting data, and method for receiving data
US9723245B2 (en) Data transmitting apparatus, data receiving apparatus, data transceiving system, method for transmitting data, and method for receiving data
US8427525B2 (en) Method of transmitting video data for wirelessly transmitting three-dimensional video data
US9313576B2 (en) Data transmitting apparatus, data receiving apparatus, data transceiving system, data transmitting method, and data receiving method
US20130222690A1 (en) Data transmission apparatus, data receiving apparatus, data transceiving system, data transmission method and data receiving method
JP7396300B2 (en) Transmitting device, transmitting method, receiving device and receiving method
JP6449318B2 (en) Transmitter, receiver and system for synchronous transmission of auxiliary data frames via HDMI interface
JP6514649B2 (en) Data transmission apparatus, data reception apparatus, data transmission / reception system, data transmission method and data reception method
WO2020045044A1 (en) Transmission device, transmission method, reception device, and reception method
CN111107282A (en) Video switching method, video switcher, electronic device and storage medium
KR102012231B1 (en) Data transmitting apparatus, data receiving apparatus, data transreceiving system, data transmitting method, data receiving method and data transreceiving method
KR20210011916A (en) Transmission device, transmission method, reception device and reception method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181221

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190412

R150 Certificate of patent or registration of utility model

Ref document number: 6514649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees