KR20140115247A - Data transmitting appratus, data receiving apparatus, data tranceiving system, method for transmitting data and method for receiving data - Google Patents

Data transmitting appratus, data receiving apparatus, data tranceiving system, method for transmitting data and method for receiving data Download PDF

Info

Publication number
KR20140115247A
KR20140115247A KR1020140025653A KR20140025653A KR20140115247A KR 20140115247 A KR20140115247 A KR 20140115247A KR 1020140025653 A KR1020140025653 A KR 1020140025653A KR 20140025653 A KR20140025653 A KR 20140025653A KR 20140115247 A KR20140115247 A KR 20140115247A
Authority
KR
South Korea
Prior art keywords
audio
data
subpacket
packet
field indicating
Prior art date
Application number
KR1020140025653A
Other languages
Korean (ko)
Other versions
KR102180826B1 (en
Inventor
김종화
이경재
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/213,074 priority Critical patent/US10356484B2/en
Priority to EP14160082.5A priority patent/EP2779578B1/en
Priority to TW103109537A priority patent/TWI666931B/en
Priority to CN201410098153.4A priority patent/CN104053039B/en
Priority to JP2015562939A priority patent/JP6514649B2/en
Priority to PCT/KR2014/002230 priority patent/WO2014142627A1/en
Publication of KR20140115247A publication Critical patent/KR20140115247A/en
Application granted granted Critical
Publication of KR102180826B1 publication Critical patent/KR102180826B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4343Extraction or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

Disclosed is a data transmitting apparatus. The data transmitting apparatus according to one embodiment of the present invention includes a packet generating unit which generates a packet which includes a first sub packet and a second sub packet and a transmitting unit which transmits the generated packet to a data receiving apparatus. The first sub packet and the second sub packet include different audio data with regard to a first content.

Description

데이터 전송 장치, 데이터 수신 장치, 데이터 송수신 시스템, 데이터 전송 방법 및 데이터 수신 방법{DATA TRANSMITTING APPRATUS, DATA RECEIVING APPARATUS, DATA TRANCEIVING SYSTEM, METHOD FOR TRANSMITTING DATA AND METHOD FOR RECEIVING DATA}TECHNICAL FIELD [0001] The present invention relates to a data transmission apparatus, a data reception apparatus, a data transmission / reception system, a data transmission method, and a data reception method,

본 발명은 데이터 송수신 방법 및 장치에 관한 것으로, 좀더 상세하게는, 동일한 콘텐츠에 관한 복수의 오디오 데이터를 송수신하는, 데이터 전송 장치, 데이터 수신 장치, 데이터 송수신 시스템, 데이터 전송 방법 및 데이터 수신 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data transmission / reception method and apparatus, and more particularly to a data transmission apparatus, a data reception apparatus, a data transmission / reception system, a data transmission method, and a data reception method for transmitting / receiving a plurality of audio data related to the same contents will be.

최근 멀티 미디어 환경이 구축되면서 다양한 데이터 전송을 위한 고속 유선 인터페이스 규격이 제안되고 있다. 예를 들어 HDMI, MHL은 다양한 포맷의 영상 데이터, 오디오 신호, 제어 신호의 전송 규격을 규정한다. Recently, as a multimedia environment has been established, a high-speed wire interface standard for various data transmission has been proposed. For example, HDMI and MHL define transmission standards for video data, audio signals, and control signals in various formats.

그러나, 종래의 오디오 신호 전송 규격은, 시각 장애인을 위한 오디오 데이터나, 콘텐츠에 대한 다국어로 된 오디오 데이터를 전송하는 등의 인터페이스 규격을 제시하지 못하였다. However, the conventional audio signal transmission standard does not provide an interface standard for transmitting audio data for a visually impaired person or audio data in multiple languages for contents.

이처럼, 소스 장치와 싱크 장치 사이에 동일한 콘텐츠와 관련된 복수의 오디오 데이터를 송수신할 수 있는 인터페이스 규격의 필요성이 제기된다.Thus, there is a need for an interface specification capable of transmitting and receiving a plurality of audio data related to the same content between a source apparatus and a sink apparatus.

본 발명은 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은, 소스 장치와 싱크 장치 사이에 동일한 콘텐츠와 관련된 복수의 오디오 데이터를 송수신할 수 있는 인터페이스 규격을 제공하기 위함이다.It is an object of the present invention to provide an interface standard capable of transmitting and receiving a plurality of audio data related to the same content between a source apparatus and a sink apparatus.

상기와 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른, 데이터 전송 장치는, 제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 생성하는 패킷 생성부와, 상기 생성된 패킷을 데이터 수신 장치로 전송하는 전송부를 포함하고, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함한다. According to another aspect of the present invention, there is provided a data transmission apparatus including a packet generator for generating a packet including a first subpacket and a second subpacket, And wherein the first subpacket and the second subpacket comprise different audio data for the first content.

이때, 상기 제1 서브 패킷은 비장애인을 위한 오디오 데이터를 포함하고, 상기 제2 서브 패킷은 시각 장애인을 위한 오디오 데이터를 포함할 수 있다.At this time, the first subpacket includes audio data for a non-disabled person, and the second subpacket may include audio data for a blind person.

또한, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 상이한 언어로 된 오디오 데이터를 포함할 수 있다.In addition, the first subpacket and the second subpacket may include audio data in a different language.

또한, 상기 제1 서브 패킷은 상기 제2 서브 패킷에 대한 오디오 디스크립션에 해당하는 오디오 데이터를 포함할 수 있다.In addition, the first subpacket may include audio data corresponding to the audio description of the second subpacket.

또한, 상기 패킷은, 상기 제1 콘텐츠와 상이한 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제3 서브 패킷을 더 포함할 수 있다.In addition, the packet may further include a third subpacket including audio data for a second content different from the first content.

이때, 상기 제1 서브 패킷이 포함하는 오디오 데이터는 상기 제1 콘텐츠에 대한 전용 오디오 데이터이고, 상기 제3 서브 패킷이 포함하는 오디오 데이터는 상기 제2 콘텐츠에 대한 전용 오디오 데이터이며, 상기 제2 서브 패킷이 포함하는 오디오 데이터는, 상기 제1 콘텐츠 및 상기 제2 콘텐츠에 대한 공통 오디오 데이터일 수 있다.At this time, the audio data included in the first subpacket is dedicated audio data for the first content, the audio data included in the third subpacket is dedicated audio data for the second content, The audio data included in the packet may be common audio data for the first content and the second content.

또한, 상기 패킷은, 상기 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제4 서브 패킷을 더 포함하고, 상기 제3 서브 패킷과 상기 제4 서브 패킷은 상이한 오디오 데이터를 포함할 수 있다.The packet may further include a fourth subpacket including audio data for the second content, and the third subpacket and the fourth subpacket may include different audio data.

상기와 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른, 데이터 수신 장치는, 데이터 전송 장치로부터 제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 수신하는 수신부와, 상기 수신된 제1 서브 패킷 및 상기 제2 서브 패킷을 파싱하는 파싱부를 포함하고, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함한다.According to another aspect of the present invention, there is provided a data receiving apparatus including a receiver for receiving a packet including a first subpacket and a second subpacket from a data transmission apparatus, Packet and a parsing unit parsing the second subpacket, wherein the first subpacket and the second subpacket comprise different audio data for the first content.

또한, 상기 제1 서브 패킷은 비장애인을 위한 오디오 데이터를 포함하고, 상기 제2 서브 패킷은 시각 장애인을 위한 오디오 데이터를 포함할 수 있다.In addition, the first subpacket may include audio data for a non-disabled person, and the second subpacket may include audio data for a blind person.

또한, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 상이한 언어로 된 오디오 데이터를 포함할 수 있다.In addition, the first subpacket and the second subpacket may include audio data in a different language.

이때, 상기 제1 서브 패킷은 상기 제2 서브 패킷에 대한 오디오 디스크립션에 해당하는 오디오 데이터를 포함할 수 있다.Here, the first subpacket may include audio data corresponding to the audio description of the second subpacket.

또한, 상기 패킷은, 상기 제1 콘텐츠와 상이한 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제3 서브 패킷을 더 포함할 수 있다.In addition, the packet may further include a third subpacket including audio data for a second content different from the first content.

이때, 상기 제1 서브 패킷이 포함하는 오디오 데이터는 상기 제1 콘텐츠에 대한 전용 오디오 데이터이고, 상기 제3 서브 패킷이 포함하는 오디오 데이터는 상기 제2 콘텐츠에 대한 전용 오디오 데이터이며, 상기 제2 서브 패킷이 포함하는 오디오 데이터는, 상기 제1 콘텐츠 및 상기 제2 콘텐츠에 대한 공통 오디오 데이터일 수 있다.At this time, the audio data included in the first subpacket is dedicated audio data for the first content, the audio data included in the third subpacket is dedicated audio data for the second content, The audio data included in the packet may be common audio data for the first content and the second content.

또한, 상기 패킷은, 상기 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제4 서브 패킷을 더 포함하고, 상기 제3 서브 패킷과 상기 제4 서브 패킷은 상이한 오디오 데이터를 포함할 수 있다.The packet may further include a fourth subpacket including audio data for the second content, and the third subpacket and the fourth subpacket may include different audio data.

상기와 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른, 데이터 송수신 시스템은, 제1 서브 패킷 및 제2 서브 패킷을 포함하는 패킷을 생성하여 데이터 수신 장치로 전송하는 데이터 전송 장치와, 상기 데이터 전송 장치로부터 상기 패킷을 수신하는 데이터 수신 장치를 포함하고, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함한다.According to an aspect of the present invention, there is provided a data transmission / reception system including a data transmission device for generating a packet including a first subpacket and a second subpacket and transmitting the generated packet to a data reception device, And a data receiving apparatus for receiving the packet from a data transmission apparatus, wherein the first subpacket and the second subpacket comprise different audio data for the first content.

상기와 같은 목적을 달성하기 위한 본 발명의 다른 실시 예에 따른, 데이터 전송 장치는, 오디오 메타 데이터 패킷을 생성하는 패킷 생성부와, 상기 생성된 오디오 메타 데이터 패킷을 데이터 수신 장치로 전송하는 전송부를 포함하고, 상기 생성된 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함한다.According to another aspect of the present invention, there is provided a data transmission apparatus including a packet generator for generating an audio metadata packet, and a transmitter for transmitting the generated audio metadata packet to a data receiver, And a header of the generated audio metadata packet includes a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.

또한, 상기 생성된 오디오 메타 데이터 패킷의 헤더는, 전송되는 오디오 스트림의 개수 정보를 나타내는 오디오 스트림 개수 필드(Number Of Audio Stream Field)를 더 포함할 수 있다.In addition, the header of the generated audio metadata packet may further include a number of audio stream field indicating the number of audio streams to be transmitted.

또한, 상기 생성된 오디오 메타 데이터 패킷의 헤더는, 전송되는 상이한 콘텐츠의 개수 정보를 나타내는 뷰 개수 필드(Number Of Views Field)를 더 포함할 수 있다.In addition, the header of the generated audio metadata packet may further include a number of view field indicating the number of pieces of different contents to be transmitted.

또한, 상기 생성된 오디오 메타 데이터 패킷의 페이로드(payload)는, 멀티 스트림 오디오 샘플 패킷(Multi-stream Audio Sample Packet) 또는 멀티 스트림 원비트 오디오 샘플 패킷(Multi-stream One Bit Audio Sample Packet)의 서브패킷에 대한 메타 데이터를 나타내는 오디오 메타 데이터 디스크립터 필드를 포함할 수 있다.In addition, the payload of the generated audio metadata packet may be divided into a multi-stream Audio Sample Packet or a Multi-stream One Bit Audio Sample Packet And an audio metadata descriptor field indicating metadata about the packet.

또한, 상기 오디오 메타 데이터 디스크립터 필드는, 긴급 상황 방송이 있는지를 나타내는 긴급 채널 필드(Emergency Channel Field), 멀티 뷰에서 좌안 또는 우안 영상에 대응되는 오디오 데이터를 포함하는지를 나타내는 멀티뷰 필드(Multivew Field), 오디오 데이터에 대한 언어의 식별 유무를 나타내는 언어 코드 유효 필드(Language Code Valid Field), 보조 오디오 데이터 유무를 나타내는 보조 오디오 유효 필드(Supplemental Audio Valid Field), 메인 오디오 데이터와 상기 보조 오디오 데이터의 프리 믹스 여부를 나타내는 프리믹스 보조 오디오 필드(pre-mixed Supplemental Audio Field), 상기 보조 오디오 데이터의 타입을 나타내는 보조 오디오 타입 필드(Supplemental Audio Type Field), 및 오디오 데이터에 대한 언어 코드를 나타내는 언어 코드 필드(Language Code Field) 중 적어도 하나를 포함할 수 있다.In addition, the audio metadata descriptor field includes an emergency channel field indicating whether there is an emergency broadcast, a multi-view field indicating whether audio data corresponding to the left or right eye image is included in the multi-view, A language code valid field indicating whether or not the language is identified with respect to the audio data, a supplemental audio valid field indicating the presence or absence of the auxiliary audio data, whether or not the main audio data and the auxiliary audio data are premixed A supplemental audio type field indicating a type of the auxiliary audio data and a language code field indicating a language code for the audio data, ) ≪ / RTI > have.

상기와 같은 목적을 달성하기 위한 본 발명의 다른 실시 예에 따른, 데이터 수신 장치는, 데이터 전송 장치로부터 오디오 메타 데이터 패킷을 수신하는 수신부와, 상기 수신된 오디오 메타 데이터 패킷을 파싱하는 파싱부를 포함하고, 상기 수신된 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함한다. According to another aspect of the present invention, there is provided a data receiving apparatus including a receiver for receiving an audio metadata packet from a data transmission apparatus, and a parser for parsing the received audio metadata packet, The header of the received audio metadata packet includes a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.

또한, 상기 오디오 메타 데이터 패킷의 헤더는, 수신되는 오디오 스트림의 개수 정보를 나타내는 오디오 스트림 개수 필드(Number Of Audio Stream Field)를 더 포함할 수 있다. The header of the audio metadata packet may further include a number of audio stream field indicating the number of audio streams to be received.

또한, 상기 오디오 메타 데이터 패킷의 헤더는, 수신되는 상이한 콘텐츠의 개수 정보를 나타내는 뷰 개수 필드(Number Of Views Field)를 더 포함할 수 있다.In addition, the header of the audio metadata packet may further include a number of view field indicating the number of pieces of different contents to be received.

또한, 상기 오디오 메타 데이터 패킷의 페이로드(payload)는, 멀티 스트림 오디오 샘플 패킷(Multi-stream Audio Sample Packet) 또는 멀티 스트림 원비트 오디오 샘플 패킷(Multi-stream One Bit Audio Sample Packet)의 서브패킷에 대한 메타 데이터를 나타내는 오디오 메타 데이터 디스크립터 필드를 포함할 수 있다.The payload of the audio metadata packet may be a sub-packet of a multi-stream audio sample packet or a multi-stream one-bit audio sample packet. Lt; RTI ID = 0.0 > metadata metadata descriptor field. ≪ / RTI >

또한, 상기 오디오 메타 데이터 디스크립터 필드는, 긴급 상황 방송이 있는지를 나타내는 긴급 채널 필드(Emergency Channel Field), 멀티 뷰에서 좌안 또는 우안 영상에 대응되는 오디오 데이터를 포함하는지를 나타내는 멀티뷰 필드(Multivew Field), 오디오 데이터에 대한 언어의 식별 유무를 나타내는 언어 코드 유효 필드(Language Code Valid Field), 보조 오디오 데이터 유무를 나타내는 보조 오디오 유효 필드(Supplemental Audio Valid Field), 메인 오디오 데이터와 상기 보조 오디오 데이터의 프리 믹스 여부를 나타내는 프리믹스 보조 오디오 필드(pre-mixed Supplemental Audio Field), 상기 보조 오디오 데이터의 타입을 나타내는 보조 오디오 타입 필드(Supplemental Audio Type Field), 및 오디오 데이터에 대한 언어 코드를 나타내는 언어 코드 필드(Language Code Field) 중 적어도 하나를 포함할 수 있다.In addition, the audio metadata descriptor field includes an emergency channel field indicating whether there is an emergency broadcast, a multi-view field indicating whether audio data corresponding to the left or right eye image is included in the multi-view, A language code valid field indicating whether or not the language is identified with respect to the audio data, a supplemental audio valid field indicating the presence or absence of the auxiliary audio data, whether or not the main audio data and the auxiliary audio data are premixed A supplemental audio type field indicating a type of the auxiliary audio data and a language code field indicating a language code for the audio data, ) ≪ / RTI > have.

상기와 같은 목적을 달성하기 위한 본 발명의 다른 실시 예에 따른, 데이터 송수신 시스템은, 오디오 메타 데이터 패킷을 생성하여 데이터 수신 장치로 전송하는 데이터 전송 장치와, 상기 데이터 전송 장치로부터 상기 오디오 메타 데이터 패킷을 수신하는 데이터 수신 장치를 포함하고, 상기 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함한다.According to another aspect of the present invention, there is provided a data transmission / reception system including a data transmission apparatus for generating an audio metadata packet and transmitting the audio data packet to a data reception apparatus, And a header of the audio metadata packet includes a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.

상기와 같은 목적을 달성하기 위한 본 발명의 또 다른 실시 예에 따른, 데이터 전송 장치는, 오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 생성하는 생성부와, 데이터 수신 장치에 상기 디스플레이 식별 정보를 전송하는 전송부를 포함하고, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드를 포함한다.According to another aspect of the present invention, there is provided a data transmission apparatus including a generation unit for generating display identification information including characteristic information supported by a sink device with respect to audio data, And a transmitting unit for transmitting the display identification information to the device, wherein the display identification information includes a main / auxiliary audio property field indicating information about characteristics of main audio and auxiliary audio supported by the sink device.

또한, 상기 메인/보조 오디오 특성 필드는, 상기 싱크 장치가 메인 오디오와 보조 오디오의 합성을 지원하는지 나타내는 오디오 믹스 필드(Audio Mix Field), 상기 싱크 장치가 보조 오디오를 지원하는지 나타내는 보조 오디오 지원 필드(Supplemental Audio Support Field), 상기 싱크 장치가 복수의 언어로 된 오디오 데이터를 지원하는지를 나타내는 언어 지원 필드(Language Support Field), 상기 싱크 장치가 멀티뷰 콘텐츠를 위한 멀티 스트림 오디오 데이터를 지원하는지를 나타내는 멀티뷰 오디오 지원 필드(Multiview Audio Support Field), 상기 싱크 장치가 핸들링할 수 있는 최대 오디오 스트림의 개수를 나타내는 최대 스트림 카운트 필드(Maximum Stream Count Field), 및 3D 오디오 디스크립터의 개수를 나타내는 오디오 디스크립터 개수 필드(Number Of Audio Descriptor Field) 중 적어도 하나를 포함할 수 있다.The main / auxiliary audio property field may include an audio mix field indicating whether the sink device supports synthesis of main audio and auxiliary audio, an auxiliary audio support field indicating whether the sink device supports auxiliary audio, Supplemental Audio Support Field), a language support field indicating whether the sink device supports audio data in a plurality of languages, a multi-view audio field indicating whether the sink device supports multi-stream audio data for multi- A maximum stream count field indicating a maximum number of audio streams that can be handled by the sink device, and an audio descriptor number field indicating a number of 3D audio descriptors Audio Descriptor Field) It can be included.

또한, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 긴급 상황 방송 수신 및 처리를 지원하는지를 나타내는 긴급 채널 필드(Emergency Channel Field)를 더 포함할 수 있다.In addition, the display identification information may further include an emergency channel field indicating whether the sink device supports reception and processing of an emergency situation broadcast.

상기와 같은 목적을 달성하기 위한 본 발명의 또 다른 실시 예에 따른, 데이터 수신 장치는, 데이터 전송 장치로부터, 오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 수신하는 수신부와, 상기 수신된 디스플레이 식별 정보를 분석하는 분석부를 포함하고, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드를 포함한다. According to another aspect of the present invention, there is provided a data receiving apparatus including: a receiving unit for receiving, from a data transmission apparatus, display identification information including characteristic information supported by a sink apparatus with respect to audio data; And an analysis unit for analyzing the received display identification information. The display identification information includes a main / auxiliary audio property field indicating information about characteristics of main audio and auxiliary audio supported by the sink device.

또한, 상기 메인/보조 오디오 특성 필드는, 상기 싱크 장치가 메인 오디오와 보조 오디오의 합성을 지원하는지 나타내는 오디오 믹스 필드(Audio Mix Field), 상기 싱크 장치가 보조 오디오를 지원하는지 나타내는 보조 오디오 지원 필드(Supplemental Audio Support Field), 상기 싱크 장치가 복수의 언어로 된 오디오 데이터를 지원하는지를 나타내는 언어 지원 필드(Language Support Field), 상기 싱크 장치가 멀티뷰 콘텐츠를 위한 멀티 스트림 오디오 데이터를 지원하는지를 나타내는 멀티뷰 오디오 지원 필드(Multiview Audio Support Field), 상기 싱크 장치가 핸들링할 수 있는 최대 오디오 스트림의 개수를 나타내는 최대 스트림 카운트 필드(Maximum Stream Count Field), 및 3D 오디오 디스크립터의 개수를 나타내는 오디오 디스크립터 개수 필드(Number Of Audio Descriptor Field) 중 적어도 하나를 포함할 수 있다.The main / auxiliary audio property field may include an audio mix field indicating whether the sink device supports synthesis of main audio and auxiliary audio, an auxiliary audio support field indicating whether the sink device supports auxiliary audio, Supplemental Audio Support Field), a language support field indicating whether the sink device supports audio data in a plurality of languages, a multi-view audio field indicating whether the sink device supports multi-stream audio data for multi- A maximum stream count field indicating a maximum number of audio streams that can be handled by the sink device, and an audio descriptor number field indicating a number of 3D audio descriptors Audio Descriptor Field) It can be included.

또한, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 긴급 상황 방송 수신 및 처리를 지원하는지를 나타내는 긴급 채널 필드(Emergency Channel Field)를 더 포함할 수 있다.In addition, the display identification information may further include an emergency channel field indicating whether the sink device supports reception and processing of an emergency situation broadcast.

상기와 같은 목적을 달성하기 위한 본 발명의 또 다른 실시 예에 따른, 데이터 송수신 시스템은, 오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 생성하여 데이터 수신 장치로 전송하는 데이터 전송 장치와, 상기 데이터 전송 장치로부터 상기 디스플레이 식별 정보를 수신하여 분석하는 데이터 수신 장치를 포함하고, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드를 포함한다. According to another aspect of the present invention, there is provided a data transmission / reception system for generating display identification information including feature information supported by a sink device with respect to audio data and transmitting the display identification information to a data reception device And a data receiving device for receiving and analyzing the display identification information from the data transmission device, wherein the display identification information includes information indicating characteristics of main audio and auxiliary audio supported by the sink device Main / secondary audio property field.

상기와 같은 목적을 달성하기 위한 본 발명의 일 다른 실시 예에 따른, 데이터 전송 방법은, 제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 생성하는 단계와, 상기 생성된 패킷을 데이터 수신 장치로 전송하는 단계를 포함하고, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함한다. According to another aspect of the present invention, there is provided a data transmission method including generating a packet including a first subpacket and a second subpacket, Wherein the first subpacket and the second subpacket comprise different audio data for the first content.

상기와 같은 목적을 달성하기 위한 본 발명의 일 다른 실시 예에 따른, 데이터 수신 방법은, 데이터 전송 장치로부터 제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 수신하는 단계와, 상기 수신된 제1 서브 패킷 및 상기 제2 서브 패킷을 파싱하는 단계를 포함하고, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함한다.According to another aspect of the present invention, there is provided a data receiving method including receiving a packet including a first subpacket and a second subpacket from a data transmission apparatus, Parsing the first subpacket and the second subpacket, wherein the first subpacket and the second subpacket comprise different audio data for the first content.

상기와 같은 목적을 달성하기 위한 본 발명의 다른 실시 예에 따른, 오디오 메타 데이터 패킷을 생성하는 단계와, 상기 생성된 오디오 메타 데이터 패킷을 데이터 수신 장치로 전송하는 단계를 포함하고, 상기 생성된 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함한다.According to another aspect of the present invention, there is provided a method for generating an audio metadata packet, the method comprising: generating an audio metadata packet; and transmitting the generated audio metadata packet to a data receiving apparatus, The header of the metadata packet includes a 3D audio field indicating whether the 3D audio sample packet is transmitted or not.

상기와 같은 목적을 달성하기 위한 본 발명의 다른 실시 예에 따른, 데이터 수신 방법은, 데이터 전송 장치로부터 오디오 메타 데이터 패킷을 수신하는 단계와, 상기 수신된 오디오 메타 데이터 패킷을 파싱하는 단계를 포함하고, 상기 수신된 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함한다.According to another aspect of the present invention, there is provided a data receiving method including receiving an audio metadata packet from a data transmission apparatus, and parsing the received audio metadata packet The header of the received audio metadata packet includes a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.

상기와 같은 목적을 달성하기 위한 본 발명의 또 다른 실시 예에 따른, 데이터 전송 방법은, 오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 생성하는 단계와, 데이터 수신 장치에 상기 디스플레이 식별 정보를 전송하는 단계를 포함하고, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드를 포함한다.According to another aspect of the present invention, there is provided a data transmission method including generating display identification information including feature information supported by a sink device with respect to audio data, And the display identification information includes a main / auxiliary audio property field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.

상기와 같은 목적을 달성하기 위한 본 발명의 또 다른 실시 예에 따른, 데이터 수신 방법은, 데이터 전송 장치로부터, 오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 수신하는 단계와, 상기 수신된 디스플레이 식별 정보를 분석하는 단계를 포함하고, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드를 포함한다. According to another aspect of the present invention, there is provided a data receiving method including receiving display identification information including characteristic information supported by a sink device with respect to audio data from a data transmission device, And analyzing the received display identification information, wherein the display identification information includes a main / auxiliary audio property field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 본 발명은, 소스 장치와 싱크 장치 사이에 동일한 콘텐츠와 관련된 복수의 오디오 데이터를 송수신할 수 있는 인터페이스 규격을 제공한다.According to various embodiments of the present invention as described above, the present invention provides an interface specification capable of transmitting and receiving a plurality of audio data related to the same content between a source apparatus and a sink apparatus.

도 1은 싱글 오디오 스트림과 멀티 오디오 스트림을 도시한 도면,
도 2는 소스 장치가 싱크 장치로 듀얼 윈도우 및 화면 분리에 대한 멀티 오디오를 전송하는 도시한 도면,
도 3은 상기 화면 분리 지원 정보를 표시하기 위한 싱크 장치와 소스 장치 사이의 데이터 송수신을 개괄적으로 나타낸 도면,
도 4는 상기 멀티 오디오 샘플 패킷의 페이로드가 전송되는 상황을 도시한 도면,
도 5 및 6은 3D 오디오 신호의 전송 타이밍일 도시한 도면,
도 7은 본 발명의 일 실시 예에 따른 데이터 송수신 시스템의 구성을 도시한 블록도,
도 8은 본 발명의 일 실시 예에 따른 데이터 전송 장치의 구성을 도시한 블록도,
도 9는 본 발명의 일 실시 예에 따른 데이터 수신 장치의 구성을 도시한 블록도,
도 10 본 발명의 다른 실시 예에 따른 데이터 송수신 시스템의 구성을 도시한 블록도,
도 11은 본 발명의 다른 실시 예에 따른 데이터 전송 장치의 구성을 도시한 블록도,
도 12는 본 발명의 다른 실시 예에 따른 데이터 수신 장치의 구성을 도시한 블록도,
도 13은 본 발명의 또 다른 실시 예에 따른 데이터 송수신 시스템의 구성을 도시한 블록도,
도 14는 본 발명의 또 다른 실시 예에 따른 데이터 전송 장치의 구성을 도시한 블록도,
도 15는 본 발명의 또 다른 실시 예에 따른 데이터 수신 장치의 구성을 도시한 블록도,
도 16a 내지 16b는 쿼드 뷰 비디오 콘텐츠를 3D 인터레이스 포맷으로 전송하는 경우 다양한 데이터 전송 포맷을 도시한 도면,
도 17은 본 발명의 일 실시 예에 따른 데이터 전송 방법의 흐름도,
도 18은 본 발명의 일 실시 예에 따른 데이터 수신 방법의 흐름도,
도 19는 본 발명의 다른 실시 예에 따른 데이터 전송 방법의 흐름도,
도 20은 본 발명의 다른 실시 예에 따른 데이터 수신 방법의 흐름도,
도 21은 본 발명의 또 다른 실시 예에 따른 데이터 전송 방법의 흐름도, 그리고,
도 22는 본 발명의 또 다른 실시 예에 따른 데이터 수신 방법의 흐름도이다.
1 shows a single audio stream and a multi-audio stream,
2 is a view showing a source apparatus transmitting multi-audio for dual window and screen separation to a sink apparatus,
3 is a diagram schematically showing data transmission / reception between a sink device and a source device for displaying the screen separation support information,
4 is a diagram illustrating a situation in which a payload of the multi-audio sample packet is transmitted,
5 and 6 are diagrams showing transmission timings of a 3D audio signal,
7 is a block diagram illustrating the configuration of a data transmission / reception system according to an embodiment of the present invention.
8 is a block diagram illustrating the configuration of a data transmission apparatus according to an embodiment of the present invention.
9 is a block diagram showing the configuration of a data receiving apparatus according to an embodiment of the present invention.
10 is a block diagram illustrating a configuration of a data transmission / reception system according to another embodiment of the present invention.
11 is a block diagram showing the configuration of a data transmission apparatus according to another embodiment of the present invention.
12 is a block diagram showing the configuration of a data receiving apparatus according to another embodiment of the present invention;
13 is a block diagram showing the configuration of a data transmission / reception system according to another embodiment of the present invention;
FIG. 14 is a block diagram showing the configuration of a data transmission apparatus according to another embodiment of the present invention; FIG.
15 is a block diagram showing the configuration of a data receiving apparatus according to another embodiment of the present invention;
16A-16B illustrate various data transmission formats when transmitting quad-view video content in a 3D interlaced format;
17 is a flowchart of a data transmission method according to an embodiment of the present invention;
18 is a flowchart of a data receiving method according to an embodiment of the present invention;
19 is a flowchart of a data transmission method according to another embodiment of the present invention;
20 is a flowchart of a data receiving method according to another embodiment of the present invention;
21 is a flowchart of a data transmission method according to another embodiment of the present invention,
22 is a flowchart of a data receiving method according to another embodiment of the present invention.

이하 본 발명의 바람직한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어서, 관련된 공지기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions of the present invention, and may vary depending on the user, the operator, or the convention. Therefore, the definition should be based on the contents throughout this specification.

본 발명은 본 발명의 기술적 사상과 균등한 범위에서 HDMI(High Definition Multimedia Interface), MHL(Mobile High-Definition Link) 규격과 같은 다양한 유선 인터페이스 전송 규격에 적용될 수 있으므로 본 발명의 권리범위는 이와 유사한 유선 인터페이스 전송 규격에까지 미친다.Since the present invention can be applied to various wired interface transmission standards such as HDMI (High Definition Multimedia Interface) and MHL (Mobile High-Definition Link) standards in the scope of the technical idea of the present invention, Interface transmission specifications.

본 명세서는 하기의 문헌을 참조한다. The present specification refers to the following documents.

ITU-R BS.2159-4 (05/2012), 가정내 다채널 사운드 기술과 방송 애플리케이션(Multichannel sound technology in home and broadcasting applications) ITU-R BS.2159-4 (05/2012), home multi-channel sound technology and broadcasting applications (Multichannel sound technology in home and broadcasting applications)

SMPTE, SMPTE 2036-2:2008, “UHDTV-음성 특징들과 프로그램 제작을 위한 음성 채널 맵핑(UHDTV ? Audio characteristics and audio channel mapping for program production)”, 2008 SMPTE, SMPTE 2036-2: 2008, "UHDTV - Audio Channel and Audio Channel Mapping for Program Production", 2008

IEC, IEC 62574 ed 1.0, “음성, 비디오 그리고 멀티미디어 시스템- 다채널 음성의 일반적 채널 할당(Audio, video and multimedia systems ? General channel assignment of multichannel audio)”, 2011년 4월 7일IEC 62574 ed 1.0, "Voice, Video and Multimedia Systems - General Channel Assignment of Multichannel Audio (General Channel Assignment of Multichannel Audio)", April 7, 2011

다음의 테이블 1은 본 명세서에서 사용하는 용어를 간략하게 설명하고 있다. The following Table 1 briefly describes the terms used in this specification.

TermTerm DefinitionDefinition MHL 소스MHL source MHL 출력 포트를 갖는 장치. MHL 소스는 각각의 MHL 출력 포트에서 소켓을 사용하고 플러그는 사용하지 않는다.An apparatus having an MHL output port. The MHL source uses a socket at each MHL output port and does not use a plug. MHL 싱크MHL sink 하나 또는 그 이상의 MHL 입력 포트를 갖는 장치. MHL 싱크는 각각의 MHL 입력 포트에서 소켓을 사용하고 플러그는 사용하지 않는다.An apparatus having one or more MHL input ports. MHL sinks use sockets on each MHL input port and do not use plugs. 3D 오디오3D audio 스피커들이 3D 공간 어디에서든 위치하는 음성 시스템. 이것은 높이 요소를 포함하지 않고 전형적으로 수평적 2D 평면 스피커들을 위치시키는 오디오. 3D 오디오는 ITU-R BS.2159-4(타입 B 10.2ch), SMPTE2036-2 (22.2ch), 또는 IEC62574 (30.2ch)에서 정의되는 채널 레이아웃을 사용한다. 3D 오디오는 또한 9개 또는 그 이상의 오디오 채널들을 포함하는 이런 표준들에서 정의되는 다운믹스된 오디오 스트림을 포함한다. 이 명세서에서 의심의 여지를 피하기 위해, 3D 오디오는 별개의 채널들의 한정된 수를 의미할 뿐, 객체를 기반으로 하는 오디오를 의미하지 않는다. An audio system where speakers are located anywhere in 3D space. This does not include the height element, and typically places the horizontal 2D flat speakers. 3D audio uses the channel layout defined in ITU-R BS.2159-4 (Type B 10.2ch), SMPTE2036-2 (22.2ch), or IEC62574 (30.2ch). 3D audio also includes a downmixed audio stream defined in these standards, including nine or more audio channels. To avoid any doubt in this specification, 3D audio refers to a limited number of distinct channels, not audio based on objects. 멀티 오디오Multi Audio 하나 또는 그 이상의 비디오 스트림과 관련된 오디오 스트림의 컬렉션. 멀티 오디오는 싱글-AV 스트림으로서 옮겨진다. 이 명세서에서 명확성을 위해, 멀티 오디오는 멀티 AV-스트리밍을 경유한 다수 오디오 스트림의 전송을 의미하지 않는다.A collection of audio streams associated with one or more video streams. Multi-audio is transferred as a single-AV stream. For clarity in this specification, multi-audio does not imply the transmission of multiple audio streams via multi-AV-streaming. 스트림Stream MHL 소스로부터 기원하고 하나의 MHL 싱크에서 종료하는 디지털 데이터의 시간 순서 집합. 스트림은 스트림 데이터 내에서 고정된 주파수 대역폭 조건들에 의해, 그리고 동기화 시점이나 시간 스탬프에 의해 특징지어 진다. A temporal set of digital data originating from an MHL source and terminating in one MHL sink. Streams are characterized by fixed frequency bandwidth conditions in the stream data, and by synchronization timestamps or time stamps. (싱글-AV) 스트림(Single-AV) stream 모든 스트림 데이터가 동일한 패킷 스트림 ID를 공유하도록 패킷화되는 싱글 스트림.
싱글-AV 스트림에서 스트림 데이터는 하나 또는 그 이상의 비디오 스트림, 그리고 하나 또는 그 이상의 오디오 스트림을 처리할 수 있다.
A single stream in which all stream data is packetized to share the same packet stream ID.
Stream data in a single-AV stream can process one or more video streams, and one or more audio streams.
멀티-AV 스트림Multi-AV stream 유일한 패킷 스트림 ID가 각 싱글-AV 스트림에 할당되는 다수 싱글-AV 스트림 집합.A set of multiple single-AV streams with a unique packet stream ID assigned to each single-AV stream. 싱글-뷰Single-view 싱글 비디오 스트림만이 MHL 싱크에 표시되는 뷰 모드.View mode in which only a single video stream is displayed in MHL Sync. 멀티-뷰Multi-view 두 개 또는 그 이상의 독립 비디오 스트림이 MHL 싱크에 동시에 표시되고, 시청자가 주어진 시간에 언제든 하나의 비디오 스트림만을 볼 수 있는 뷰 모드. 예를 들어, 멀티 뷰 비디오 스트림은 독립 비디오 스트림이 좌우 입체 화면들에서 각각 처리되는 3D 비디오 포맷을 통해 전송될 수 있다.A view mode in which two or more independent video streams are simultaneously displayed in the MHL Sync, allowing viewers to view only one video stream at any given time. For example, a multi-view video stream may be transmitted via a 3D video format in which an independent video stream is processed in left and right stereoscopic screens, respectively. 윈도우window MHL 싱크에 의해 표시되는 비디오 영상의 (비중첩) 부분. 비디오 영상은 각 창이 서로 중첩하지 않는 두 개 또는 그 이상의 창들로 구성될 수 있다.(Non-overlapping) portion of the video image displayed by the MHL Sync. The video image may be composed of two or more windows in which each window does not overlap with each other. 분리 화면Split Screen 두 개 또는 그 이상의 창들이 태그(tag) 되고 MHL 소스(예를 들면, PIP TV 시청, TV 퀵 프리뷰, 멀티스크린 게임)에 의해 식별되는 뷰 옵션.View options where two or more windows are tagged and identified by an MHL source (eg PIP TV viewing, TV quick preview, multi-screen games).

<Table 1 ? Term>
<Table 1? Term>

도 1은 싱글 오디오 스트림과 멀티 오디오 스트림을 도시한 도면이다.1 is a diagram showing a single audio stream and a multi-audio stream.

도 1 (A)에 도시된 것처럼 싱글 오디오 스트림은 적어도 하나의 비디오 데이터에 대해 복수의 오디오 데이터가 존재하고, 이들 오디오 데이터가 하나의 싱글 스트림으로 전송되는 경우이다. 싱글 스트림에서는 모든 스트림 데이터가 동일한 패킷 스트림 ID를 공유하도록 패킷화된다. As shown in FIG. 1 (A), a single audio stream has a plurality of audio data for at least one video data, and these audio data are transmitted in one single stream. In a single stream, all stream data are packetized so as to share the same packet stream ID.

도 1 (B)에 도시된 것처럼 멀티 오디오 스트림은 다수의 싱글 AV 스트림이 전송되는 경우이다. 멀티 오디오 스트림에서는 유일한 패킷 스트림 ID가 각 싱글 AV 스트림에 할당되는 다수의 싱글-AV 스트림 집합이 존재한다. 다수의 싱글 AV 스트림의 비디오 데이터는 상호 독립적이다.As shown in FIG. 1B, a multi-audio stream is a case in which a plurality of single AV streams are transmitted. In the multi-audio stream, there is a plurality of sets of single-AV streams in which a unique packet stream ID is assigned to each single AV stream. Video data of a plurality of single AV streams are mutually independent.

멀티 오디오 스트림의 각 오디오 스트림은 최대 2 개의 오디오 채널을 전송한다. 그리고, 싱글 오디오 스트림과 관련된다. 예를 들어, 싱글 뷰 모드에서 각 오디오는 디폴트 비디오 스트림에 연결되고, 듀얼 뷰 모드에서 오디오는 좌측 이미지나 우측 이미지(또는 둘다)에 연결될 수 있다. 또한, 다음과 같은 하나 이상의 보조 오디오 옵션을 전송할 수 있다. 즉, 화면 분리 태깅(Split-screen tagging), 언어 표시(Language indication), 시각/청각 장애인을 위한 오디오 표시(indication of audio for visually/hearing impaired)이 그것이다. Each audio stream in a multi-audio stream transmits a maximum of two audio channels. And is associated with a single audio stream. For example, in single view mode, each audio is connected to a default video stream, and in dual view mode audio can be connected to the left image or the right image (or both). In addition, one or more of the following auxiliary audio options may be transmitted: Split-screen tagging, language indication, and audio indication for visually or hearing impaired.

화면 분리(Split Screen)란, 두 개 이상의 윈도우에 대해 소스 장치에 의해 상이한 오디오 데이터가 태깅되고 식별되는 시청 옵션(viewing option)을 의미한다. 화면 분리는 PIP 시청 방식 (picture-in-pucture viewing), 퀵 프리뷰 시청 방식(quick-preview), 멀티 스크린 게임(multi-screen game) 등에서 사용된다. 여기서 윈도우란 싱크 장치의 스크린의 일 영역 상에 디스플레이 되는 구별되는 디스플레이 이미지를 의미한다. Split Screen is a viewing option in which different audio data is tagged and identified by the source device for two or more windows. Screen separation is used in picture-in-pucture viewing, quick-preview, multi-screen game, and the like. Here, the window means a distinct display image displayed on one area of the screen of the sink device.

화면 분리(또는 멀티 윈도우도 동일한 용어로 사용될 수 있다)는 멀티 오디오와 함께 사용되는 선택적인 구성이 될 수 있다. 화면 분리 모드는 싱크 장치에서 화면이 분리되는 구성을 나타내며, 오디오 스트림을 태깅하고, 특정한 윈도창에 매핑한다. Screen separation (or multi-window can be used with the same terminology) can be an optional configuration used with multi-audio. The Screen Separation mode represents a configuration in which the screen is separated from the sink device, tagging the audio stream and mapping it to a specific window.

도 2는 소스 장치가 싱크 장치로 듀얼 윈도우 및 화면 분리에 대한 멀티 오디오를 전송하는 도시한 도면이다.2 is a diagram showing a source device transmitting multi-audio for a dual window and screen separation to a sink device.

도 2의 (A)는 멀티 스크린에 각각에 대한 오디오 데이터를 전송하는 실시 예이고, 도 2의 (B)는 퀵 프리뷰 시청이나 PIP 시청에 따른 복수의 오디오 데이터를 전송하는 실시 예이며, 도 2의 (C)는 멀티 스크린 게임에 따른 복수의 오디오 데이터를 전송하는 실시 예를 도시한다. 싱크 장치의 사용자는 원하는 오디오를 선택하여 청취할 수 있다. 2 (A) shows an embodiment for transmitting audio data for each of the multi-screens. FIG. 2 (B) shows an embodiment for transmitting a plurality of audio data according to quick preview or PIP viewing, (C) of FIG. 4 shows an embodiment of transmitting a plurality of audio data according to a multi-screen game. The user of the sink device can select and listen to the desired audio.

도 3은 상기 화면 분리 지원 정보를 표시하기 위한 싱크 장치와 소스 장치 사이의 데이터 송수신을 개괄적으로 나타낸 도면이다.3 is a diagram schematically showing data transmission / reception between a sink device and a source device for displaying the screen separation support information.

소스 장치(310)는 밴더-특정 인포프레임(Vendor-Specific Infoframe), 멀티 오디오 샘플 패킷(Multi-Audio Sample Packet), 멀티 오디오 매타 데이터 패킷(Multi-Audio Metadata Packet)을 싱크 장치로 전송한다. The source device 310 transmits a Vender-Specific Infoframe, a Multi-Audio Sample Packet, and a Multi-Audio Metadata Packet to the sink device.

멀티 오디오 샘플 패킷은 복수의 오디오 스트림을 포함한다. 멀티 오디오 메타 데이터 패킷은 각 오디오 스트림에 대한 설정을 표시한다. 이는 비디오 스트림과 관련되며, 보조 오디오 정보를 운반할 수 있다. 밴더-특정 인포 프레임은 전송되는 콘텐츠의 멀티 뷰 타입을 표시한다. 구체적인 실시 예에 대해서는 후술하기로 한다. The multi-audio sample packet includes a plurality of audio streams. The multi-audio metadata packet displays the settings for each audio stream. It is associated with a video stream and can carry auxiliary audio information. The vendor-specific info frame indicates the multi-view type of the content being transmitted. Specific embodiments will be described later.

싱크 장치(320)는 확장된 디바이스 성능 레지스터(Extended Device Capability Register)를 소스 장치로 전송하여 싱크 장치가 지원하는 멀티 오디오 모드 정보를 알려준다. 구체적인 실시 예에 대해서는 후술하기로 한다.
The sink device 320 transmits an extended device capability register (Extended Device Capability Register) to the source device to inform the multi-audio mode information supported by the sink device. Specific embodiments will be described later.

한편, 멀티 오디오는 보조 오디오 트랙들(예를 들면, 다수 언어, 시각적 장애를 위한 오디오 설명, 또는 청각적 장애를 위한 클린 오디오)의 전송을 지원한다. 이 경우에, 최대 16개의 오디오 스트림들이 동시에 전송될 수 있다. 이에 대해서도 구체적인 설명은 뒤에서 하기로 한다.
Multi audio, on the other hand, supports the transmission of auxiliary audio tracks (e.g., multiple languages, audio descriptions for visual impairments, or clean audio for audible disturbances). In this case, up to 16 audio streams can be transmitted simultaneously. This will be described in detail later.

TMDS 시그널링과 인코딩TMDS signaling and encoding

데이터 플랫폼 패킷Data platform packet

Packet Type ValuePacket Type Value Packet TypePacket Type SectionSection 0x000x00 NullNull 4.x4.x 0x010x01 Audio Clock Regeneration (N/CTS) Audio Clock Regeneration (N / CTS) 4.x4.x 0x020x02 Audio Sample Audio Sample 4.x4.x 0x030x03 Content Mute PacketContent Mute Packet 4.x4.x 0x040x04 3D Audio Sample3D Audio Sample 4.x4.x 0x050x05 Multi-Audio SampleMulti-Audio Sample 4.x4.x 0x060x06 3D Audio Metadata Packet3D Audio Metadata Packet 4.x4.x 0x070x07 Multi-Audio Metadata PacketMulti-Audio Metadata Packet 4.x4.x 0x80+InfoFrame Type0x80 + InfoFrame Type InfoFrame InfoFrame 4.x4.x

< Table 2 - Packet Types><Table 2 - Packet Types>

3D 오디오 샘플 패킷3D Audio Sample Packet

3D 오디오는 스피커가 3D 공간상에서 3D 오디오 규격(e.g. 10.2ch, 22.2ch, 30.2ch 등)별로 정해진 위치에 배치될 수 있는 오디오로 정의된다. 3D 오디오 샘플 패킷은 9개에서 32개의 오디오 채널들을 가지는 하나의 오디오 샘플로 구성되어 있다.3D audio is defined as audio in which the speaker can be placed at a predetermined position for 3D audio specifications (e.g., 10.2ch, 22.2ch, 30.2ch, etc.) in 3D space. The 3D audio sample packet consists of one audio sample with 9 to 32 audio channels.

3D 오디오 스트림은 32 오디오 채널(또는 그 이상)까지를 포함하고 데이터 섬 구간에서 연속적인 패킷을 통해 전송된다. 각 패킷은 8 오디오 채널들까지 포함한다. 서브 패킷들의 구성은 시퀀스 번호와 헤더에 있는 샘플 프레즌트 비트(sample_present bits)에 의해 판단된다. The 3D audio stream contains up to 32 audio channels (or more) and is transmitted over consecutive packets in the data island interval. Each packet includes up to eight audio channels. The configuration of the subpackets is determined by the sequence number and sample_present bits in the header.

시퀀스 번호 필드(sequence_number): 현재 패킷의 순서를 나타낸다. 다수 3D 오디오 샘플 패킷들이 싱글 3D 오디오 샘플을 포함하기 때문에, 이 필드는 패킷 순서를 정확하게 식별하기 위해 필요하다. Sequence number field (sequence_number): indicates the order of the current packet. Since multiple 3D audio sample packets contain a single 3D audio sample, this field is needed to accurately identify the packet order.

다른 헤더 필드들과 서브패킷 구조는 MHL 2.0 명세서에서 보여지는 오디오 샘플 패킷과 일치한다.The different header fields and subpacket structure are consistent with the audio sample packets shown in the MHL 2.0 specification.

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 HB0HB0 00 00 00 00 00 1One 00 00 HB1HB1 00 00 sequence_numbersequence_number sample present.sp3sample present.sp3 sample present.sp2sample present.sp2 sample present.sp1sample present.sp1 sample present.sp0sample present.sp0 HB2HB2 B.3B.3 B.2B.2 B.1B.1 B.0B.0 sample flat.sp3sample flat.sp3 sample flat.sp2sample flat.sp2 sample flat.sp1sample flat.sp1 sample flat.sp0sample flat.sp0 PB0PB0 L.11L.11 ... ... ... ... ... ... L.4L.4 PB1PB1 L.19L.19 ... ... ... ... ... ... L.12L.12 PB2PB2 L.27L.27 ... ... ... ... ... ... L.20L.20 PB3PB3 R.11R.11 ... ... R.4R.4 PB4PB4 R.19R.19 ... ... ... ... ... ... R.12R.12 PB5PB5 R.27R.27 ... ... ... ... ... ... R.20R.20 PB6PB6 PR P R CR C R VR V R PL P L CL C L UL U L VL V L PB7PB7 L.11L.11 ... ... ... ... ... ... L.4L.4 PB8PB8 L.19L.19 ... ... ... ... ... ... L.12L.12 PB9PB9 L.27L.27 ... ... ... ... ... ... L.20L.20 PB10PB10 R.11R.11 ... ... R.4R.4 PB11PB11 R.19R.19 ... ... ... ... ... ... R.12R.12 PB12PB12 R.27R.27 ... ... ... ... ... ... R.20R.20 PB13PB13 PR P R CR C R VR V R PL P L CL C L UL U L VL V L PB14PB14 L.11L.11 ... ... ... ... ... ... L.4L.4 PB15PB15 L.19L.19 ... ... ... ... ... ... L.12L.12 PB16PB16 L.27L.27 ... ... ... ... ... ... L.20L.20 PB17PB17 R.11R.11 ... ... R.4R.4 PB18PB18 R.19R.19 ... ... ... ... ... ... R.12R.12 PB19PB19 R.27R.27 ... ... ... ... ... ... R.20R.20 PB20PB20 PR P R CR C R VR V R PL P L CL C L UL U L VL V L PB21PB21 L.11L.11 ... ... ... ... ... ... L.4L.4 PB22PB22 L.19L.19 ... ... ... ... ... ... L.12L.12 PB23PB23 L.27L.27 ... ... ... ... ... ... L.20L.20 PB24PB24 R.11R.11 ... ... R.4R.4 PB25PB25 R.19R.19 ... ... ... ... ... ... R.12R.12 PB26PB26 R.27R.27 ... ... ... ... ... ... R.20R.20 PB27PB27 PR P R CR C R VR V R PL P L CL C L UL U L VL V L

< Table 3 - 3D Audio Sample Packet>
<Table 3 - 3D Audio Sample Packet>

멀티 오디오 샘플 패킷Multi Audio Sample Packet

멀티 오디오 샘플 패킷은 각 오디오 샘플이 독립적으로 오디오 스트림과 관련된 네 개의 오디오 샘플들을 포함할 수 있다. 소스 장치가 네 개 이상의 독립적 오디오 스트림들을 동시에 전송할 때, 이런 연속적인 오디오 스트림들은 계속되는 멀티 오디오 샘플 패킷들 시리즈에 의해 전송된다. 패킷 헤더에서 정의된 시퀀스 번호(sequence_number)는 각각의 멀티 오디오 샘플 패킷을 식별하고 패킷들의 정렬 내에서 현재 패킷의 순서를 나타낸다. 서브 패킷들의 구성은 시퀀스 번호와 헤더에 있는 샘플 프레즌트 비트(sample present bits) 에 의해 판단된다. 이에 대해 멀티 오디오 데이터 패킷화에서 자세하게 설명된다. A multi-audio sample packet may include four audio samples with each audio sample independently associated with the audio stream. When the source device simultaneously transmits four or more independent audio streams, these consecutive audio streams are transmitted by a subsequent series of multi-audio sample packets. The sequence number (sequence_number) defined in the packet header identifies each multi-audio sample packet and indicates the order of the current packet within the alignment of the packets. The configuration of the subpackets is determined by the sequence number and sample present bits in the header. This is explained in detail in multi-audio data packetization.

각각의 서브 패킷(또는 오디오 스트림)을 위해, 멀티 오디오 메타데이터 패킷(Multi-Audio Metadata Packet)에 있는 디스크립터 필드(descriptor field)는 뷰 모드(즉, 싱글-뷰 또는 멀티-뷰), 그리고 선택적 정보(예를 들면, 화면 분리 태깅, 언어 코드, 시각적 장애를 위한 오디오, 등)를 설명한다. 이것들은 뒤에서 자세히 설명된다.For each sub-packet (or audio stream), the descriptor field in the Multi-Audio Metadata Packet includes a view mode (i.e., single-view or multi-view) (E.g., screen separation tagging, language code, audio for visual impairments, etc.). These are explained in detail later.

시퀀스 번호 필드(sequence_number): 소스 장치로부터 싱크 장치로 전송하기 위한 네 개 이상의 오디오 스트림들이 있을 때, 현재 멀티 오디오 샘플 패킷의 시퀀스 번호를 나타낸다. 만약 이 필드가 0으로 설정되면, 그 패킷은 해당 서브 패킷들에서 각각 첫 번째 네 개의 오디오 스트림들을 포함할 수 있다. 만약 이 필드가 1로 설정되면, 그 패킷은 해당 서브 패킷들에서 각각 두 번째 네 개의 오디오 스트림 세트를 포함할 수 있다. 비슷한 방법에서, 패킷은 이 필드가 2나 3으로 설정될 때, 세 번째나 네 번째 네 개의 오디오 스트림 세트를 각각 포함한다. 시퀀스 번호가 0인 서브 패킷 0에서 처리되는 오디오 스트림은 디폴트(default) 오디오 스트림으로서 지정된다. Sequence number field (sequence_number): indicates the sequence number of the current multi-audio sample packet when there are four or more audio streams to be transmitted from the source apparatus to the sink apparatus. If this field is set to 0, then the packet may contain the first four audio streams in each of these subpackets. If this field is set to 1, then the packet may contain a second set of four audio streams each in the corresponding subpackets. In a similar manner, the packet includes a third or fourth set of four audio streams, respectively, when this field is set to 2 or 3. An audio stream processed in subpacket 0 with a sequence number of 0 is designated as a default audio stream.

스트림 프레즌트 필드 (stream_presnt.spX) : 서브 패킷 X가 스트림 X의 오디오 샘플(들)을 포함하는지 아닌지를 나타낸다. Stream Present field (stream_presnt.spX): Indicates whether subpacket X contains audio sample (s) of stream X or not.

스트림 플랫 필드(stream_flat.spX) : 서브 패킷 X가 스트림 X의 “플랫라인(flatline)” 샘플을 나타내는지 아닌지를 나타낸다. stream_present.spX 가 설정될 때만 유효하다. Stream Flat Field (stream_flat.spX): Indicates whether subpacket X represents a "flatline" sample of stream X or not. Valid only when stream_present.spX is set.

다른 헤더 필드들과 서브 패킷 구조는 MHL 2.0 스팩에서 보여지는 오디오 샘플 패킷과 일치한다. Other header fields and subpacket structure match the audio sample packet seen in the MHL 2.0 specification.

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 HB0HB0 00 00 00 00 00 1One 00 1One HB1HB1 00 00 sequence_numbersequence_number stream present.sp3stream present.sp3 stream present.sp2stream present.sp2 stream present.sp1stream present.sp1 stream present.sp0stream present.sp0 HB2HB2 B.3B.3 B.2B.2 B.1B.1 B.0B.0 stream flat.sp3stream flat.sp3 stream flat.sp2stream flat.sp2 stream flat.sp1stream flat.sp1 stream flat.sp0stream flat.sp0 PB0~PB6PB0 to PB6 Audio sample data for audio stream N+0Audio sample data for audio stream N + 0 PB7~PB13PB7 to PB13 Audio sample data for audio stream N+1Audio sample data for audio stream N + 1 PB14~PB20PB14 to PB20 Audio sample data for audio stream N+2Audio sample data for audio stream N + 2 PB21~PB27PB21 to PB27 Audio sample data for audio stream N+3Audio sample data for audio stream N + 3

< Table 4 - Mutli Audio Sample Packet><Table 4 - Mutli Audio Sample Packet>

도 4는 상기 멀티 오디오 샘플 패킷의 페이로드가 전송되는 상황을 도시한 도면이다. 4 is a diagram illustrating a state in which the payload of the multi-audio sample packet is transmitted.

도 4에 도시된 것처럼 4 개의 멀티 오디오 샘플 패킷이 전송되는 경우 16개의 오디오 스트림을 운반할 수 있다. 시퀀스 번호는 2비트로 이루어져 있으므로, 최대 16개의 오디오 스트림이 운반될 수 있다.
As shown in FIG. 4, when four multi-audio sample packets are transmitted, 16 audio streams can be carried. Since the sequence number consists of two bits, up to 16 audio streams can be carried.

3D 오디오 메타데이터 패킷3D audio metadata packet

액티브(active) 3D 오디오 데이터를 설명하는 보조 데이터(Ancillary data)는 3D 오디오 메타데이터 패킷을 사용해서 전송된다. 소스 장치가 3D 오디오 샘플 패킷들을 전송할 수 있다면, 소스 장치는 항상 정확한 3D 오디오 메타데이터 패킷을, 적어도 두 개의 비디오 필드당 한번, 전송한다. Ancillary data describing active 3D audio data is transmitted using 3D audio metadata packets. If the source device is capable of transmitting 3D audio sample packets, then the source device always transmits the correct 3D audio metadata packet, once per at least two video fields.

다음은 3D 오디오 메타데이터 패킷을 보여준다. The following shows the 3D audio metadata packet.

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 HB0HB0 00 00 00 00 00 1One 1One 1One HB1HB1 00 00 00 00 00 00 00 00 HB2HB2 00 00 00 00 00 00 00 00 PB0PB0 00 00 00 3D_CC3D_CC PB1PB1 00 00 00 00 3D_CAST3D_CAST PB2PB2 3D_CA3D_CA PB3~PB27PB3 to PB27
Reserved

Reserved

< Table 5 - 3D Audio Metadata Packet><Table 5 - 3D Audio Metadata Packet>

3D_CC [4:0]3D_CC [4: 0] Audio Channel CountAudio Channel Count 0b000000b00000 Refer to Stream HeaderRefer to Stream Header 0b000010b00001 9 channels9 channels 0b000100b00010 10 channels10 channels ... ... 0b110000b11000 32 channels32 channels 0b11001~0b111110b11001 ~ 0b11111 ReservedReserved

< Table 6 - 3D_CC (3D Audio Channel Count) field><Table 6 - 3D Audio Channel Count (3D_CC) field>

3D_CAST [3:0]3D_CAST [3: 0] DescriptionDescription 0b00000b0000 ReservedReserved 0b00010b0001 Up to 10.2 channels
Based on ITU-R BS. 2159-4 (Type B, 10.2ch)
Up to 10.2 channels
Based on ITU-R BS. 2159-4 (Type B, 10.2ch)
0b00100b0010 Up to 22.2 channels
Based on SMPTE 2036-2
Up to 22.2 channels
Based on SMPTE 2036-2
0b00110b0011 Up to 30.2 channels
Based on IEC 62574/Ed.1
Up to 30.2 channels
Based on IEC 62574 / Ed.1
0b0100~0b11110b0100 ~ 0b1111 ReservedReserved

< Table 7 - 3D_CAST (3D Audio Channel Allocation Standard Type) field><Table 7 - 3D_CAST (3D Audio Channel Allocation Standard Type) field>

3D_CA
(hex)
3D_CA
(hex)
Channel NumberChannel Number
1212 1111 1010 99 88 77 66 55 44 33 22 1One 0x000x00 TpFCTpFC LFE2LFE2 TpFRTpFR TpFLTpFL BRBR BLBL RSRS LSLS FCFC LFE1LFE1 FRFR FLFL 0x010x01 ReservedReserved ... 0xFF0xFF

< Table 8 - 3D_CA (3D Audio Channel/Speaker Allocation) field ( 3D_CAST = 0x01(up to 10.2ch) )><Table 8 - 3D Audio Channel / Speaker Allocation (3D_CA) field (3D_CAST = 0x01 (up to 10.2ch))>

3D_CA
(hex)
3D_CA
(hex)
Channel NumberChannel Number
1212 1111 1010 99 88 77 66 55 44 33 22 1One 0x000x00 TpFCTpFC LFE2LFE2 TpFRTpFR TpFLTpFL BRBR BLBL SiRSiR SiLSiL FCFC LFE1LFE1 FRFR FLFL 0x010x01 TpFCTpFC LFE2LFE2 TpFRTpFR TpFLTpFL BRBR BLBL SiRSiR SiLSiL FCFC LFE1LFE1 FRFR FLFL 0x020x02 ReservedReserved ... 0xFF0xFF 3D_CA
(hex)
3D_CA
(hex)
Channel NumberChannel Number
2424 2323 2222 2121 2020 1919 1818 1717 1616 1515 1414 1313 0x000x00 -- -- -- -- -- -- -- -- -- -- -- -- 0x010x01 BtFCBtFC BtFRBtFR BtFLBtFL TpCTpC TpSiRTpSiR TpSiLTpSiL TpBCTpBC TpBRTpBR TpBLTpBL BCBC FRCFRC FLCFLC 0x020x02 ReservedReserved ... 0xFF0xFF

< Table 9 - 3D_CA (3D Audio Channel/Speaker Allocation) field ( 3D_CAST = 0x02(up to 22.2ch) )><Table 9 - 3D Audio Channel / Speaker Allocation (3D_CA) field (3D_CAST = 0x02 (up to 22.2ch))>

3D_CA
(hex)
3D_CA
(hex)
Channel NumberChannel Number
1212 1111 1010 99 88 77 66 55 44 33 22 1One 0x000x00 TpFCTpFC LFE2LFE2 TpFRTpFR TpFLTpFL BRBR BLBL SiRSiR SiLSiL FCFC LFE1LFE1 FRFR FLFL 0x010x01 TpFCTpFC LFE2LFE2 TpFRTpFR TpFLTpFL BRBR BLBL SiRSiR SiLSiL FCFC LFE1LFE1 FRFR FLFL 0x020x02 TpFCTpFC LFE2LFE2 TpFRTpFR TpFLTpFL BRBR BLBL SiRSiR SiLSiL FCFC LFE1LFE1 FRFR FLFL 0x030x03 ReservedReserved ... 0xFF0xFF 3D_CA
(hex)
3D_CA
(hex)
Channel NumberChannel Number
2424 2323 2222 2121 2020 1919 1818 1717 1616 1515 1414 1313 0x000x00 -- -- -- -- -- -- -- -- -- -- -- -- 0x010x01 BtFCBtFC BtFRBtFR BtFLBtFL TpCTpC TpSiRTpSiR TpSiLTpSiL TpBCTpBC TpBRTpBR TpBLTpBL BCBC FRCFRC FLCFLC 0x020x02 BtFCBtFC BtFRBtFR BtFLBtFL TpCTpC TpSiRTpSiR TpSiLTpSiL TpBCTpBC TpBRTpBR TpBLTpBL BCBC FRCFRC FLCFLC 0x030x03 ReservedReserved ... 0xFF0xFF 3D_CA
(hex)
3D_CA
(hex)
Channel NumberChannel Number
3232 3131 3030 2929 2828 2727 2626 2525 0x000x00 -- -- -- -- -- -- -- -- 0x010x01 -- -- -- -- -- -- -- -- 0x020x02 TpRSTpRS TpLSTpLS RSdRSd LSdLSd RSRS LSLS FRWFRW FLWFLW 0x030x03 ReservedReserved ... 0xFF0xFF

< Table 10 - 3D_CA (3D Audio Channel/Speaker Allocation) field ( 3D_CAST = 0x03(up to 30.2ch) )>
<Table 10 - 3D Audio Channel / Speaker Allocation (3D_CA) field (3D_CAST = 0x03 (up to 30.2ch))>

멀티 오디오 메타데이터 패킷(Multi-Audio Metadata Packet)Multi-Audio Metadata Packet

액티브 멀티 오디오 스트림을 설명하는 보조 데이터(supplementary data)는 멀티 오디오 메타데이터 패킷을 사용해서 전송된다. 이 패킷은 뷰 종류와 멀티 오디오 샘플 패킷들에서 옮겨지는 각각의 오디오 스트림을 위한 보조적 오디오 선택사항들을 설명하기 위해 사용된다. Supplementary data describing the active multi-audio stream is transmitted using the multi-audio metadata packet. This packet is used to describe the view type and auxiliary audio options for each audio stream being transferred from the multi-audio sample packets.

소스 장치가 멀티 오디오 샘플 패킷들을 전송할 수 있다면, 소스 장치는 항상 정확한 멀티 스트림 오디오 메타데이터 패킷을, 적어도 두 개의 비디오 필드당 한번씩 전송한다. If the source device is capable of transmitting multi-audio sample packets, the source device always transmits correct multi-stream audio metadata packets, once for at least two video fields.

다음은 멀티 오디오 메타데이터 패킷을 보여준다.The following shows a multi-audio metadata packet.

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 HB0HB0 00 00 00 00 1One 00 00 00 HB1HB1 MA_View_TypeMA_View_Type Sequence_NumberSequence_Number Num_Audio_StreamsNum_Audio_Streams HB2HB2 SC_
Valid
SC_
Valid
000 0000
(or Split_Screen_Config, if SC_Valid=1)
000 0000
(or Split_Screen_Config, if SC_Valid = 1)
PB0~PB6PB0 to PB6 MA_Descriptor_0MA_Descriptor_0 PB7~PB13PB7 to PB13 MA_Descriptor_1 MA_Descriptor_1 PB14~PB20PB14 to PB20 MA_Descriptor_2 MA_Descriptor_2 PB21~PB27PB21 to PB27 MA_Descriptor_3 MA_Descriptor_3

< Table 11 - Multi-Audio Metadata Packet>
<Table 11 - Multi-Audio Metadata Packet>

뷰 종류 필드(MA_View_Type): 싱글뷰나 멀티뷰 같은 멀티 오디오 스트림의 관련된 뷰 모드를 나타낸다. 아래 테이블을 참고.View Type Field (MA_View_Type): Represents the associated view mode of a multi-audio stream, such as single view or multi-view. See the table below.

시퀀스 번호 필드(Sequence_Number): 패킷이나 현재 멀티 오디오 메타데이터 패킷의 시퀀스 번호를 나타낸다. 이 필드는 최고 네 개의 상이한 멀티 오디오 메타데이터 패킷들을 식별하기 위해 사용된다. 이 필드는 각 멀티 오디오 메타데이터 패킷을 같은 시퀀스 번호를 갖는 멀티 오디오 샘플 패킷과 연결한다. Sequence number field (Sequence_Number): This indicates the sequence number of the packet or the current multi-audio metadata packet. This field is used to identify up to four different multi-audio metadata packets. This field links each multi-audio metadata packet with a multi-audio sample packet having the same sequence number.

오디오 스트림 개수 필드(Num_Audio_Streams: 멀티 오디오 샘플 패킷들에 의해 전송된 오디오 스트림들의 총 개수를 나타낸다.Num_Audio_Streams: indicates the total number of audio streams transmitted by the multi-audio sample packets.

화면 분리 유효 필드(SC_Valid): 만약 1로 설정된다면, 화면 분리 태깅은 지원받고, 화면 분리 구성 필드는 다음 7비트에서 상세화된다. 만약 0으로 설정되면, 화면 분리 태깅은 지원받지 않거나 상세화되지 않거나 하고, 다음 7비트는 다른 사용을 위해 남겨진다. Screen Separation Effective Field (SC_Valid): If set to 1, screen separation tagging is supported, and the Screen Separation Configuration field is refined in the next 7 bits. If set to 0, the screen splitting tagging is unsupported or unspecified, and the next 7 bits are left for other uses.

화면 분리 종류 필드(Split_Screen_Config) : 현재 디스크립터에 의해 나타내지는 오디오 스트림과 관련된 화면 분리 종류를 나타낸다. 선택 가능한 화면 분리 종류들은 아래 테이블 13에서 나열되어 있다. 이 필드는 SC_유효=1일때만 유효하다.Screen Split Type field (Split_Screen_Config): Indicates the type of screen separation related to the audio stream represented by the current descriptor. The selectable screen separation types are listed in Table 13 below. This field is valid only when SC_Enabled = 1.

멀티 오디오 디스크립터 필드(MA_Descriptor_X): 해당 멀티 오디오 샘플 패킷의 서브 패킷 X에 의해 전송되는 오디오 스트림의 특성을 나타낸다. 테이블 13은 멀티 오디오 디스크립터의 상세한 구조를 보여준다. Multi Audio Descriptor Field (MA_Descriptor_X): Indicates the characteristics of the audio stream transmitted by subpacket X of the corresponding multi-audio sample packet. Table 13 shows the detailed structure of the multi-audio descriptor.

MA_View_Type [1:0]MA_View_Type [1: 0] DescriptionDescription 0b000b00 Unspecified or single view modeUnspecified or single view mode 0b010b01 Multi-View modeMulti-View mode 0b100b10 ReservedReserved 0b110b11 ReservedReserved

< Table 12 - Multi-Audio Type field><Table 12 - Multi-Audio Type field>

Split_Screen_Config [6:0]Split_Screen_Config [6: 0] DescriptionDescription 0b000 00000b000 0000 Unspecified or single view modeUnspecified or single view mode 0b000 00010b000 0001 Split mode 1 (split by 2)

Figure pat00001
Split mode 1 (split by 2)
Figure pat00001
0b000 00100b000 0010 Split mode 2 (split by 2)
Figure pat00002
Split mode 2 (split by 2)
Figure pat00002
0b000 00110b000 0011 Split mode 3 (split by 2)
Figure pat00003
Split mode 3 (split by 2)
Figure pat00003
0b000 01000b000 0100 Split mode 4 (split by 3)
Figure pat00004
Split mode 4 (split by 3)
Figure pat00004
0b000 01010b000 0101 Split mode 5 (split by 3)
Figure pat00005
Split mode 5 (split by 3)
Figure pat00005
0b000 01100b000 0110 Split mode 6 (split by 3)
Figure pat00006
Split mode 6 (split by 3)
Figure pat00006
0b000 01110b000 0111 Split mode 7 (split by 3)
Figure pat00007
Split mode 7 (split by 3)
Figure pat00007
0b000 10000b000 1000 Split mode 8 (split by 3)
Figure pat00008
Split mode 8 (split by 3)
Figure pat00008
0b000 10010b000 1001 Split mode 9 (split by 3)
Figure pat00009
Split mode 9 (split by 3)
Figure pat00009
0b000 10100b000 1010 Split mode 10 (split by 4)
Figure pat00010
Split mode 10 (split by 4)
Figure pat00010
0b000 10110b000 1011 Split mode 11 (split by 4)
Figure pat00011
Split mode 11 (split by 4)
Figure pat00011
0b000 11000b000 1100 … (TBD)... (TBD) 0bxxx xxxx ~ 0b111 11110bxxx xxxx ~ 0b111 1111 ReservedReserved

< Table 13 - Split_Screen_Config field>
<Table 13 - Split_Screen_Config field>

다음 표는 멀티 오디오 디스크립터를 보여준다.The following table shows the multi-audio descriptors.

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 PB N+0PB N + 0 Split_Screen_TagSplit_Screen_Tag 00 00 Associated_View_IDAssociated_View_ID PB N+1PB N + 1 LC_presentLC_present 00 Mixed_ AudioMixed_ Audio SAT_ presentSAT_ present Suppl_Audio_TypeSuppl_Audio_Type PB N+2PB N + 2
Language_Code (3 Bytes)

Language_Code (3 Bytes)
PB N+3PB N + 3 PB N+4PB N + 4 PB N+5PB N + 5 00 00 00 00 00 00 00 00 PB N+6PB N + 6 00 00 00 00 00 00 00 00

< Table 14 - Multi-Audio Descriptor>
<Table 14 - Multi-Audio Descriptor>

화면 분리 태그 필드(Split_Screen_Tag) : 현재 멀티 오디오 디스크립터에 의해 나타내지는 오디오 스트림과 관련된 특정 창(분리 화면 구성에 의해 정의된 것처럼)을 나타낸다. 상세한 설명은 아래 테이블 16에서 보여진다. 이 필드는 SC_유효=1 일때만 유효하고, 그렇지 않으면 싱크 장치는 이 필드를 무시한다. Screen Split Tag field (Split_Screen_Tag): Indicates a specific window (as defined by the split screen configuration) associated with the audio stream currently represented by the multi-audio descriptor. Details are shown in Table 16 below. This field is valid only when SC_valid = 1, otherwise the sink device ignores this field.

관련 뷰 식별 필드(Associated_View_ID): 현재 멀티 오디오 디스크립터에 의해 나타내지는 오디오 스트림과 관련된 특정 뷰를 나타낸다. 이 필드의 의미는 뷰 종류 필드(MA_View_Type) 의 값에 달려있다. 상세한 설명은 아래 테이블 15에서 보여진다. Associated View Identification field (Associated_View_ID): indicates a specific view associated with the audio stream currently represented by the multi-audio descriptor. The meaning of this field depends on the value of the view type field (MA_View_Type). Details are shown in Table 15 below.

유효 언어 코드 필드(LC_present): 만약 이 필드가 1로 설정되면, 현재 디스크립터는 다음 바이트들에서 유효한 언어 코드 필드(Language_Code)를 포함한다. Valid Language Code field (LC_present): If this field is set to 1, the current descriptor contains a valid language code field (Language_Code) in the next bytes.

믹스 오디오 필드(Mixed_Audio): 만약 이 필드가 1로 설정되면, 해당 오디오 스트림은 보조 오디오 종류 필드(Suppl_Audio_Type)에 의해 나타나듯이 일반 오디오와 보조 오디오의 미리 믹스된 스트림을 포함한다. Mixed Audio field (Mixed_Audio): If this field is set to 1, the audio stream contains a premixed stream of general audio and auxiliary audio, as indicated by the auxiliary audio type field (Suppl_Audio_Type).

SAT 프레즌트 필드(SAT_present) : 만약 이 필드가 1로 설정되면, 현재 디스크립터는 다음 4비트들에서 유효한 보조 오디오 종류 필드(Suppl_Audio_Type)를 포함한다. SAT Present field (SAT_present): If this field is set to 1, the current descriptor contains a valid auxiliary audio type field (Suppl_Audio_Type) in the next four bits.

보조 오디오 종류 필드(Suppl_Audio_Type) : 해당 오디오 스트림을 위한 보조 오디오의 종류를 나타낸다. 상세한 설명은 테이블 17을 참고. 이 필드는 SAT 프레즌트 필드(SAT_present)=1 일 때만 유효하고, 그렇지 않으면, 싱크 장치는 이 필드를 무시한다. Auxiliary audio type field (Suppl_Audio_Type): Indicates the type of auxiliary audio for the audio stream. See Table 17 for a detailed description. This field is valid only when the SAT present field (SAT_present) = 1, otherwise the sink device ignores this field.

언어 코드 필드(Language_Code): 해당 오디오 스트림의 ISO639로 정의된 언어 코드를 나타낸다. 이 필드는 유효 언어 코드 필드(LC_present)가 1로 설정될 때만 유효하고, 그렇지 않으면, 싱크 장치는 이 필드를 무시한다.Language Code field (Language_Code): Represents the language code defined by ISO 639 of the audio stream. This field is valid only when the effective language code field (LC_present) is set to 1; otherwise, the sink device ignores this field.

MA_View_TypeMA_View_Type Associated_View_ID [2:0]Associated_View_ID [2: 0] DescriptionDescription 0b000b00 0b000b00 Unspecified or default viewUnspecified or default view 0b010b01 0b000b00 Left stereoscopic picture of 3D fieldLeft stereoscopic picture of 3D field 0b010b01 Right stereoscopic picture of 3D fieldRight stereoscopic picture of 3D field 0b10 ~ 0b110b10 ~ 0b11 ReservedReserved

< Table 15 - Associated View Identifier field><Table 15 - Associated View Identifier field>

Split_Screen_Tag [3:0]Split_Screen_Tag [3: 0] DescriptionDescription 0b00000b0000 Window 1Window 1 0b00010b0001 Window 2Window 2 0b00100b0010 Window 3Window 3 ... ... 0b11110b1111 Window 16Window 16

< Table 16 - Split-Screen Tag field><Table 16 - Split-Screen Tag field>

Suppl_Audio_Type [3:0]Suppl_Audio_Type [3: 0] DescriptionDescription 0b00000b0000 Unspecified or general AudioUnspecified or general Audio 0b00010b0001 Narrated Audio for the visually impairedNarrated Audio for the visually impaired 0b00100b0010 Spoken subtitles for the visually impairedSpoken subtitles for the visually impaired 0b00110b0011 Clean audio for the hearing impairedClean audio for the hearing impaired 0b01000b0100 Emergency audio channelEmergency audio channel 0b0101~0b11110b0101 ~ 0b1111 ReservedReserved

< Table 17 - Supplementary Audio Feature field>
<Table 17 - Supplementary Audio Feature field>

액티브 멀티 오디오 모드 인디케이터(Active Multi-Audio Mode Indicator)Active Multi-Audio Mode Indicator

소스 장치는 싱크 장치에, 전송되는 정확한 뷰 모드를 나타내기 위해 Vendor-Specific Infoframe(VSIF)를 사용한다. VSIF는 테이블 18에서 보여지는 것처럼 구조화된다. The source device uses a Vendor-Specific Infoframe (VSIF) to indicate to the sink device the exact view mode to be transmitted. VSIF is structured as shown in Table 18.

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 HB0HB0 InfoFrame_Type = 0x81InfoFrame_Type = 0x81 HB1HB1 InfoFrame_version = 0x01InfoFrame_version = 0x01 HB2HB2 00 00 00 InfoFrame_lengthInfoFrame_length PB0PB0 ChecksumChecksum PB1PB1 24-bit IEEE-assigned Organizationally Unique Identifier (OUI)
0x7CA61D
24-bit IEEE-assigned Organizationally Unique Identifier (OUI)
0x7CA61D
PB2PB2 PB3PB3 PB4PB4 ReservedReserved MHL_3D_FMT_TYPEMHL_3D_FMT_TYPE MHL_VID_FMTMHL_VID_FMT PB5PB5 TBD? (for High-End Video Mode)TBD? (for High-End Video Mode) PB6PB6 00 00 00 00 00 MHL_MULTI_VIEWMHL_MULTI_VIEW PB7…PB26PB7 ... PB26 ReservedReserved PB27PB27 ReservedReserved

< Table 18 - Vendor-Specific InfoFrame Packet>
<Table 18 - Vendor-Specific InfoFrame Packet>

MHL 멀티 뷰 필드(MHL_MULTI_VIEW): 어떤 멀티뷰 모드가 전송되는지를 나타낸다. 상세한 설명은 테이블 19에서 보여진다. MHL Multi-view field (MHL_MULTI_VIEW): Indicates which Multi-view mode is transmitted. A detailed description is shown in Table 19.

MHL_MULTI_VIEW [2:0]MHL_MULTI_VIEW [2: 0] DescriptionDescription 0b0000b000 Unspecified or Single-View modeUnspecified or Single-View mode 0b0010b001 Dual-View modeDual-View mode 0b0100b010 Triple-View modeTriple-View mode 0b0110b011 Quad-View modeQuad-View mode 0b100~0b1110b100 ~ 0b111 ReservedReserved

< Table 19 - MHL_MULTI_VIEW field>
<Table 19 - MHL_MULTI_VIEW field>

비디오video

3D 지원을 위한 3D 비디오 디스크립터3D video descriptor for 3D support

BitBit 77 66 55 44 33 22 1One 00 VDI_LVDI_L ReservedReserved MV_MV_
SUPPSUPP
LR_
SUPP
LR_
SUPP
TB_
SUPP
TB_
SUPP
FS_
SUPP
FS_
SUPP
VDI_HVDI_H ReservedReserved

< Table 20 - 3D Video Descriptor Data Structure>
<Table 20 - 3D Video Descriptor Data Structure>

각각의 지원되는 3D 비디오 모드는 하나의 3D 비디오 디스크립터에서 나타내진다. Each supported 3D video mode is represented in one 3D video descriptor.

MV_SUPP: 만약 ‘1’로 설정되면, 장치는 멀티뷰 비디오 스트리밍을 위한 3D 비디오 포맷들을 사용해 지원한다.
MV_SUPP: If set to '1', the device supports using 3D video formats for multi-view video streaming.

오디오audio

채널/스피커 할당Channel / speaker assignment

싱크 장치가 3D 오디오를 수신할 능력이 있을 경우에, 테이블 38에서 테이블 40에 설명된 3D 채널 스피커 할당 디스크립터는 부착된 스피커들의 구성을 나타내기 위해 사용된다. 소스 장치로부터 전송되는 3D 오디오를 위한 현재 스피커 할당의 지표가 3D 오디오 메타데이터 패킷의 3D CA 필드에서 다뤄진다. 3D CA 필드의 상세한 설명은 테이블 27부터 29를 참고한다.
If the sink device is capable of receiving 3D audio, the 3D channel speaker allocation descriptor described in Table 38 to Table 40 is used to indicate the configuration of the attached speakers. Indicators of the current speaker allocation for 3D audio transmitted from the source device are handled in the 3D CA field of the 3D audio metadata packet. For a detailed description of the 3D CA field, see Tables 27 to 29.

3D 오디오 데이터 패킷화(3D Audio Data Packetization)3D Audio Data Packetization

3D 오디오 샘플 패킷의 각 서브 패킷은 0 또는 하나의 IEC 60958 프레임을 포함한다. 만약 소스 장치가 3D 오디오 스트림을 다운 믹스할 필요가 있고, 그 다운 믹스된 오디오 스트림들이 또한 3D 오디오 스트림일 때, 그것들은 3D 오디오 샘플 패킷들을 사용해서 처리된다. 만약 싱크 장치가 3D 오디오 특징을 지원하지 않는다면, 소스 장치는 3D 오디오 메타데이터 패킷과 더불어 3D 오디오 샘플 패킷들을 전송하지 않는다. Each subpacket of the 3D audio sample packet contains zero or one IEC 60958 frame. If the source device needs to downmix a 3D audio stream and the downmixed audio streams are also 3D audio streams, they are processed using 3D audio sample packets. If the sink device does not support the 3D audio feature, the source device does not transmit 3D audio sample packets with the 3D audio metadata packet.

채널들의 수에 의존해, 다른 서브 패킷 레이아웃의 수가 존재한다. 아래 테이블 21부터 23는 12, 24, 또는 32 채널들 각각을 전송할 때 3D 오디오 패킷 레이아웃을 보여준다.Depending on the number of channels, there are a number of different subpacket layouts. Tables 21 through 23 below show 3D audio packet layouts when transmitting each of 12, 24, or 32 channels.

Packet #Packet # sequence number시퀀스 번호 Num ChannelsNum Channels SampleSample Subpkt 0Subpkt 0 Subpkt 1Subpkt 1 Subpkt 2Subpkt 2 Subpkt 3Subpkt 3 00 00 1212 1One Chnl 1,2(Sample 0)Chnl 1,2 (Sample 0) Chnl 3,4(Sample 0)Chnl 3,4 (Sample 0) Chnl 5,6(Sample 0)Chnl 5,6 (Sample 0) Chnl 7,8(Sample 0)Chnl 7,8 (Sample 0) 1One 1One Chnl 9,10(Sample 0)Chnl 9,10 (Sample 0) Chnl 11,12(Sample 0)Chnl 11, 12 (Sample 0) EmptyEmpty EmptyEmpty

< Table 21 - 3D Audio Sample Packet Layout for 12 channels><Table 21 - 3D Audio Sample Packet Layout for 12 channels>

Packet #Packet # sequence number시퀀스 번호 Num ChannelsNum Channels SampleSample Subpkt 0Subpkt 0 Subpkt 1Subpkt 1 Subpkt 2Subpkt 2 Subpkt 3Subpkt 3 00 00 2424 1One Chnl 1,2(Sample 0)Chnl 1,2 (Sample 0) Chnl 3,4(Sample 0)Chnl 3,4 (Sample 0) Chnl 5,6(Sample 0)Chnl 5,6 (Sample 0) Chnl 7,8(Sample 0)Chnl 7,8 (Sample 0) 1One 1One Chnl 9,10(Sample 0)Chnl 9,10 (Sample 0) Chnl 11,12(Sample 0)Chnl 11, 12 (Sample 0) Chnl 13,14(Sample 0)Chnl 13,14 (Sample 0) Chnl 15,16(Sample 0)Chnl 15,16 (Sample 0) 22 22 Chnl 17,18(Sample 0)Chnl 17,18 (Sample 0) Chnl 19,20(Sample 0)Chnl 19,20 (Sample 0) Chnl 21,22(Sample 0)Chnl 21, 22 (Sample 0) Chnl 23,24(Sample 0)Chnl 23,24 (Sample 0)

< Table 22 - 3D Audio Sample Packet Layout for 24 channels><Table 22 - 3D Audio Sample Packet Layout for 24 channels>

Packet #Packet # sequence number시퀀스 번호 Num ChannelsNum Channels SampleSample Subpkt 0Subpkt 0 Subpkt 1Subpkt 1 Subpkt 2Subpkt 2 Subpkt 3Subpkt 3 00 00 32
(Max)
32
(Max)
1One Chnl 1,2(Sample 0)Chnl 1,2 (Sample 0) Chnl 3,4(Sample 0)Chnl 3,4 (Sample 0) Chnl 5,6(Sample 0)Chnl 5,6 (Sample 0) Chnl 7,8(Sample 0)Chnl 7,8 (Sample 0)
1One 1One Chnl 9,10(Sample 0)Chnl 9,10 (Sample 0) Chnl 11,12(Sample 0)Chnl 11, 12 (Sample 0) Chnl 13,14(Sample 0)Chnl 13,14 (Sample 0) Chnl 15,16(Sample 0)Chnl 15,16 (Sample 0) 22 22 Chnl 17,18(Sample 0)Chnl 17,18 (Sample 0) Chnl 19,20(Sample 0)Chnl 19,20 (Sample 0) Chnl 21,22(Sample 0)Chnl 21, 22 (Sample 0) Chnl 23,24(Sample 0)Chnl 23,24 (Sample 0) 33 33 Chnl 25,26(Sample 0)Chnl 25,26 (Sample 0) Chnl 27,28(Sample 0)Chnl 27,28 (Sample 0) Chnl 29,30(Sample 0)Chnl 29,30 (Sample 0) Chnl 31,32(Sample 0)Chnl 31,32 (Sample 0)

< Table 23 - 3D Audio Sample Packet Layout for 32 channels>
<Table 23 - 3D Audio Sample Packet Layout for 32 channels>

각각의 서브 패킷을 위한 하나의, 3D 오디오 샘플 패킷 헤더에 4개의 샘플 프레즌트 비트(Sample_present bit)들이 있다. 각각은 하나의 서브 패킷이 3D 오디오 샘플을 포함한다는 것을 나타낸다. 덧붙여, 샘플에 의해 대표되는 시간 기간 동안에 소스 장치에서 이용 가능한 유용한 오디오 데이터가 없다면, 설정되는 네 개의 샘플 플랫(sample_flat.spX) 비트들이 있다. 이것은 샘플 비율 변화 또는 일시적인 스트림 방해 동안 발생할 수 있다. There are four sample_present bits in one, 3D audio sample packet header for each subpacket. Each indicating that one subpacket contains 3D audio samples. In addition, there are four sample flats (sample_flat.spX) bits to set if there is no useful audio data available at the source device during the time period represented by the sample. This can occur during sample rate changes or transient stream interruptions.

계속되는 3D 오디오 샘플 패킷들은 L-PCM 오디오(즉, 5에서 16 IEC60958 프레임들)의 9에서 32개 사이의 채널들을 포함하는 하나의 3D 오디오 샘플을 처리하도록 사용될 수 있다. Subsequent 3D audio sample packets can be used to process one 3D audio sample, including 9 to 32 channels of L-PCM audio (i.e., 5 to 16 IEC60958 frames).

3D 오디오 샘플의 첫 번째 패킷은 8개 오디오 채널들로 가득 쌓여 있고, 0으로 설정된 시퀀스 번호 필드를 갖는다. 시퀀스 번호는 동일한 3D 오디오 샘플 내에서 각 추가 패킷에 대해 하나씩 증가한다. 마지막 패킷은 3D 오디오 샘플의 전체 채널 수들에 의존하는 8개 또는 그 보다 적은 오디오 채널수를 포함한다. The first packet of the 3D audio sample is filled with eight audio channels and has a sequence number field set to zero. The sequence number increases by one for each additional packet in the same 3D audio sample. The last packet contains eight or fewer audio channels depending on the total number of channels of the 3D audio sample.

3D 오디오 샘플 패킷을 위한 오직 5개의 유효한 샘플 프레즌트(sample_present) 비트들이 있다. There are only 5 valid sample_present bits for a 3D audio sample packet.

SP0SP0 SP1SP1 SP1SP1 SP3SP3 DescriptionDescription 00 00 00 00 No Subpackets contain parts of the audio sample.No Subpackets contain parts of the audio sample. 1One 00 00 00 Only Subpacket 0 contains one part of the audio sample.Only Subpacket 0 contains one part of the audio sample. 1One 1One 00 00 Subpackets 0 and 1 contain two contiguous parts of the audio sample.Subpackets 0 and 1 contain two contiguous parts of the audio sample. 1One 1One 1One 00 Subpackets 0 , 1 and 2 contain three contiguous parts of the audio sample.Subpackets 0, 1 and 2 contain three contiguous parts of the audio sample. 1One 1One 1One 1One Subpackets 0 , 1, 2 and 3 contain four contiguous parts of the audio sample.Subpackets 0, 1, 2 and 3 contain four contiguous parts of the audio sample.

< Table 24 - Valid Sample_Present Bit Configurations for 3D Audio transmission>
<Table 24 - Valid Sample_Present Bit Configurations for 3D Audio transmission>

도 5 및 6은 3D 오디오 신호의 전송 타이밍일 도시한 도면이다.5 and 6 are diagrams showing transmission timings of 3D audio signals.

도 5와 6에서 수평 블랭크 구간(horizontal Blanking Interval)에서 3개의 8채널 2D 오디오 신호 샘플들을 전송하는 것을 알 수 있다. 24 채널의 3D 오디오 신호는 같은 기간 동안 하나의 샘플이 전송된다.
In FIGS. 5 and 6, it can be seen that three 8-channel 2D audio signal samples are transmitted in a horizontal blanking interval. A 24-channel 3D audio signal transmits one sample during the same period.

멀티 오디오 데이터 패킷화(Multi-Audio Data Packetization)Multi-Audio Data Packetization

MHL은 MHL 소스 장치가 싱글-AV 스트리밍을 위해 오디오 스트림들을 동시에 전송하도록 하게 한다. 다수 오디오 스트림들은 싱글뷰 또는 멀티뷰 비디오 스트리밍(예를 들면, 뷰 당 다른 오디오들을 갖는 듀얼뷰 게이밍) 중 하나와 연관된다. 보조 오디오 모드들은 화면 분리 태깅(즉, 화면의 다른 부분들이 태그되고 그 자신의 오디오 스트림과 관련된다), 언어 코드들, 또는 시각적/청각적 장애인을 위한 오디오를 나타낼 수 있다. 각각의 오디오 스트림은 하나의 뷰 모드와 관련되고 최대 2개의 오디오 채널들을 포함한다. The MHL allows the MHL source device to transmit audio streams simultaneously for single-AV streaming. Multiple audio streams are associated with either single view or multi-view video streaming (e.g., dual view gaming with different audio per view). Auxiliary audio modes may represent screen separation tagging (i.e., other parts of the screen are tagged and associated with their own audio streams), language codes, or audio for a visually / auditory handicapped person. Each audio stream is associated with one view mode and comprises a maximum of two audio channels.

멀티 스트림 오디오 샘플 패킷의 각각의 서브 패킷은 0 또는 하나의IEC60958로 정의된 IEC60958 또는 IEC61937 “블록”의 “프레임들”을 포함할 수 있다.Each subpacket of a multi-stream audio sample packet may contain zero or "frames" of IEC60958 or IEC61937 "block" defined as one IEC60958.

전송되기 위한 4개 이상의 오디오 스트림들이 있을 때, 두 개 또는 그 이상의 연속되는 멀티 오디오 샘플 패킷들은 다수의 오디오 스트림들을 전송하기 위해 사용된다. 패킷 정렬 내의 각 패킷의 순서는 시퀀스 번호 필드에 의해 식별된다. MHL 소스 장치는 싱글 AV 스트림 내에서 최대 16개의 독립 오디오 스트림들을 동시에 전송할 수 있다. When there are four or more audio streams to be transmitted, two or more consecutive multi-audio sample packets are used to transmit multiple audio streams. The order of each packet in the packet alignment is identified by a sequence number field. The MHL source device can simultaneously transmit up to 16 independent audio streams in a single AV stream.

테이블 25와 26은 MHL 소스 장치가 싱글 뷰 비디오 스트리밍으로 네 개의 오디오 스트림들을 전송할 때, 멀티 오디오 샘플 패킷과 멀티 오디오 메타데이터 패킷 레이아웃의 예들을 보여준다. 멀티 오디오 메타데이터 패킷은 각각의 오디오 스트림의 특징들(보조 정보, 언어)을 설명한다. Tables 25 and 26 show examples of multi-audio sample packets and multi-audio metadata packet layout when the MHL source device transmits four audio streams with single-view video streaming. The multi-audio metadata packet describes the characteristics (auxiliary information, language) of each audio stream.

테이블 27과 28은 MHL 소스 장치가 듀얼뷰 비디오 스트리밍으로 8개의 오디오 스트림들을 전송할 때, 멀티 오디오 샘플 패킷과 멀티 오디오 메타데이터 패킷 레이아웃의 예들을 보여준다. 멀티 오디오 메타데이터 패킷은 각각의 오디오 스트림의 특징들(관련뷰, 보조 정보, 언어)을 설명한다. Tables 27 and 28 show examples of multi-audio sample packets and multi-audio metadata packet layout when the MHL source device transmits eight audio streams with dual-view video streaming. The multi-audio metadata packet describes the characteristics (associated view, auxiliary information, language) of each audio stream.

테이블 29와 30은 MHL 소스 장치가 싱글뷰 비디오 스트리밍을 가능하게 하는 화면 분리 태깅 옵션을 가지고 여섯 개의 오디오 스트림들을 전송할 때, 멀티 오디오 샘플 패킷과 멀티 오디오 메타데이터 패킷 레이아웃의 예들을 보여준다. Tables 29 and 30 show examples of a multi-audio sample packet and a multi-audio metadata packet layout when an MHL source device transmits six audio streams with a screen-separation tagging option to enable single-view video streaming.

Packet #Packet # sequence number시퀀스 번호 Num StreamsNum Streams Subpkt 0Subpkt 0 Subpkt 1Subpkt 1 Subpkt 2Subpkt 2 Subpkt 3Subpkt 3 00 00 44 Stream 1 (Channel 1,2)Stream 1 (Channel 1,2) Stream 2 (Channel 1,2)Stream 2 (Channel 1,2) Stream 3 (Channel 1,2)Stream 3 (Channel 1,2) Stream 4 (Channel 1,2)Stream 4 (Channel 1,2)

< Table 25 - Example of Multi-Audio Sample Packet Layout with 4 audio streams in single view mode><Table 25 - Example of Multi-Audio Sample Packet Layout with 4 audio streams in single view mode>

Packet #Packet # sequence number시퀀스 번호 Num StreamsNum Streams Subpkt 0Subpkt 0 Subpkt 1Subpkt 1 Subpkt 2Subpkt 2 Subpkt 3Subpkt 3 00 00 44 English
nomal
English
nomal
Korean
normal
Korean
normal
Japanese
Audio for VI
Japanese
Audio for VI
Spanish
Audio for HI
Spanish
Audio for HI

< Table 26 - Example of Multi-Audio Metadata Packet Layout (related to the packet in Table 25)><Table 26 - Example of Multi-Audio Metadata Packet Layout (related to the packet in Table 25)>

HI를 위한 오디오: 청각적 장애를 위한 오디오 스트림Audio for HI: Audio stream for auditory disorders

VI를 위한 오디오: 시각적 장애를 위한 오디오 스트림Audio for VI: Audio stream for visual impairment

Packet #Packet # sequence number시퀀스 번호 Num StreamsNum Streams Subpkt 0Subpkt 0 Subpkt 1Subpkt 1 Subpkt 2Subpkt 2 Subpkt 3Subpkt 3 00 00 88 Stream 1 (Channel 1,2)Stream 1 (Channel 1,2) Stream 2 (Channel 1,2)Stream 2 (Channel 1,2) Stream 3 (Channel 1,2)Stream 3 (Channel 1,2) Stream 4 (Channel 1,2)Stream 4 (Channel 1,2) 1One 1One Stream 5 (Channel 1,2)Stream 5 (Channel 1,2) Stream 6 (Channel 1,2)Stream 6 (Channel 1,2) Stream 7 (Channel 1,2)Stream 7 (Channel 1,2) Stream 8 (Channel 1,2)Stream 8 (Channel 1,2)

< Table 27 - Example of Multi-Audio Sample Packet Layout with 8 audio streams in dual view mode><Table 27 - Example of Multi-Audio Sample Packet Layout with 8 audio streams in dual view mode>

Packet #Packet # sequence number시퀀스 번호 Num StreamsNum Streams Subpkt 0Subpkt 0 Subpkt 1Subpkt 1 Subpkt 2Subpkt 2 Subpkt 3Subpkt 3 00 00 88 Left View
English
nomal
Left View
English
nomal
Left View
Korean
normal
Left View
Korean
normal
Left View
Spanish
normal
Left View
Spanish
normal
Left View
Spanish
Audio for HI
Left View
Spanish
Audio for HI
1One 1One Left View
English
Audio for VI
Left View
English
Audio for VI
Right View
Koean
Audio for VI
Right View
Koean
Audio for VI
Right View
Japanese
Audio for VI
Right View
Japanese
Audio for VI
Right View
Chinese
Audio for VI
Right View
Chinese
Audio for VI

< Table 28 - Example of Multi-Audio Metadata Packet Layout (related to the packet in Table 27)><Table 28 - Example of Multi-Audio Metadata Packet Layout (related to the packet in Table 27)>

HI를 위한 오디오: 청각적 장애를 위한 오디오 스트림Audio for HI: Audio stream for auditory disorders

VI를 위한 오디오: 시각적 장애를 위한 오디오 스트림Audio for VI: Audio stream for visual impairment

Packet #Packet # sequence number시퀀스 번호 Num StreamsNum Streams Subpkt 0Subpkt 0 Subpkt 1Subpkt 1 Subpkt 2Subpkt 2 Subpkt 3Subpkt 3 00 00 66 Stream 1 (Channel 1,2)Stream 1 (Channel 1,2) Stream 2 (Channel 1,2)Stream 2 (Channel 1,2) Stream 3 (Channel 1,2)Stream 3 (Channel 1,2) Stream 4 (Channel 1,2)Stream 4 (Channel 1,2) 1One 1One Stream 5 (Channel 1,2)Stream 5 (Channel 1,2) Stream 6 (Channel 1,2)Stream 6 (Channel 1,2) -- --

< Table 29 - Example of Multi-Audio Sample Packet Layout with 6 audio streams with Split-Screen tagging (in single view) mode><Table 29 - Example of Multi-Audio Sample Packet Layout with 6 audio streams with Split-Screen tagging (in single view) mode>

Packet #Packet # sequence number시퀀스 번호 Num StreamsNum Streams Subpkt 0Subpkt 0 Subpkt 1Subpkt 1 Subpkt 2Subpkt 2 Subpkt 3Subpkt 3 00 00 66 Window 1
English
normal
Window 1
English
normal
Window 2
Korean
normal
Window 2
Korean
normal
Window 3
Spanish
normal
Window 3
Spanish
normal
Window 4
Japanese
normal
Window 4
Japanese
normal
1One 1One Window 5
English
Audio for HI
Window 5
English
Audio for HI
Window 6
English
Audio for VI
Window 6
English
Audio for VI
-- --

< Table 30 - Example of Multi-Audio Metadata Packet Layout (related to the packet in Table 29)><Table 30 - Example of Multi-Audio Metadata Packet Layout (related to the packet in Table 29)>

HI를 위한 오디오: 청각적 장애를 위한 오디오 스트림Audio for HI: Audio stream for auditory disorders

VI를 위한 오디오: 시각적 장애를 위한 오디오 스트림
Audio for VI: Audio stream for visual impairment

3D 오디오 메타데이터 패킷화Packet 3D audio metadata

액티브 3D 오디오 스트림이 전송될 때마다, 정확한 3D 오디오 메타데이터 패킷이 적어도 두 개 비디오 필드 당 한번 전송된다. Each time an active 3D audio stream is transmitted, the correct 3D audio metadata packet is transmitted at least once per video field.

새로운 3D 오디오 스트림이 시작할 때, 또는 3D 오디오 메타데이터 패킷과 오디오 인포프레임에 의해 나타낼 수 있는 3D 오디오 스트림에 변화가 있을 때, 수정된 정확한 3D 오디오 메타데이터 패킷은 처음 영향받은 넌 사일런트(non-silent) 오디오 샘플을 따르는 하나의 비디오 프레임 이전에 전송된다. 우선적으로, 이것은 처음 영향 받은 오디오 샘플이 전송되기 바로 직전에 발생한다. When a new 3D audio stream starts, or when there is a change in the 3D audio stream that can be represented by the 3D audio metadata packet and the Audio InfoFrame, the correct, correct 3D audio metadata packet is sent to the first affected non-silent ) &Lt; / RTI &gt; audio sample. Primarily, this happens just before the first affected audio sample is sent.

3D 오디오 메타데이터 패킷 전송은 수평적 수직적 블랭킹 구간을 포함하는 데이터 플랫폼 구간 이내에서 언제든 발생할 수 있다. The transmission of 3D audio metadata packets can occur at any time within a data platform segment including horizontal and vertical blanking intervals.

3D 오디오가 스트리밍 될 때, MHL 싱크 장치는 오디오 인포프레임에서 CC와 CA 필드들을 무시하고, 대신에 3D 오디오 메타데이터 패킷에서 3D_CC와 3D_CA를 참고한다.
When 3D audio is streamed, the MHL sink device ignores the CC and CA fields in the audio info frame and instead refers to 3D_CC and 3D_CA in the 3D audio metadata packet.

멀티 오디오 메타데이터 패킷화Multi-audio metadata packetization

액티브 멀티-오디오 스트림이 전송될 때마다, 정확한 멀티-오디오 메타데이터 패킷이 적어도 두 개 비디오 필드 당 한번 전송된다. Each time an active multi-audio stream is transmitted, the correct multi-audio metadata packet is transmitted at least once per video field.

새로운 멀티-오디오 스트림이 시작할 때, 또는 멀티-오디오 메타데이터 패킷과 오디오 인포프레임에 의해 나타낼 수 있는 멀티-오디오 스트림에 변화가 있을 때, 수정된 정확한 멀티-오디오 메타데이터 패킷은 처음 영향받은 넌 사일런트(non-silent) 오디오 샘플을 따르는 하나의 비디오 프레임 이전에 전송된다. 우선적으로, 이것은 처음 영향 받은 오디오 샘플이 전송되기 바로 직전에 발생한다. When there is a change in the multi-audio stream that can be represented by a multi-audio metadata packet and an audio info frame at the start of a new multi-audio stream, the corrected correct multi- lt; RTI ID = 0.0 &gt; non-silent &lt; / RTI &gt; audio samples. Primarily, this happens just before the first affected audio sample is sent.

멀티-오디오 메타데이터 패킷 전송은 수평적 수직적 블랭킹 구간을 포함하는 데이터 플랫폼 구간 이내에서 언제든 발생할 수 있다.
Multi-audio metadata packet transmission may occur at any time within a data platform segment that includes horizontal and vertical blanking intervals.

3D/멀티-오디오 지원을 위한 WRITE_BURST 사용Enable WRITE_BURST for 3D / multi-audio support

3D 오디오 모드에 대한 지원은 테이블 30과 31에서 나타난 것처럼 포맷된 일련의 WRITE_BURST 이동을 사용하여 나타낸다.Support for 3D audio mode is indicated using a series of WRITE_BURST moves formatted as shown in Tables 30 and 31.

OffsetOffset SymbolSymbol ValueValue DescriptionDescription NotesNotes 0x000x00 BURST_ID_HBURST_ID_H High-order byte of Burst_IDHigh-order byte of Burst_ID 0x010x01 BURST_ID_LBURST_ID_L Low-order byte of Burst_IDLow-order byte of Burst_ID 0x020x02 CHECK_SUMCHECK_SUM Checksum for WRITE_BURSTChecksum for WRITE_BURST 0x030x03 TOT_DESCTOT_DESC Total Descriptors in SequenceTotal Descriptors in Sequence 0x040x04 SEQSEQ Sequence IndexSequence Index 0x050x05 NUM_DESCNUM_DESC Number of Descriptors in this burstNumber of Descriptors in this burst 0x060x06 AUD_DESC 1AUD_DESC 1 Indicates the audio descriptor for 3D AudioIndicates the audio descriptor for 3D Audio 0x070x07 0x080x08 0x090x09 0x0A0x0A AUD_DESC 2AUD_DESC 2 Indicates the audio descriptor for 3D AudioIndicates the audio descriptor for 3D Audio 0x0B0x0B 0x0C0x0C 0x0D0x0D 0x0E0x0E TBDTBD TBDTBD 0x0F0x0F TBDTBD TBDTBD

< Table 31 - MHL 3D Audio Descriptors (3D_AD) in WRITE_BURST><Table 31 - MHL 3D Audio Descriptors (3D_AD) in WRITE_BURST>

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 1One 00 00 00 00 Audio Format Code = 0001bAudio Format Code = 0001b 22 00 00 00 Max Number of channels - 1Max Number of channels - 1 33 00 192 kHz192 kHz 176.4 kHz176.4 kHz 96 kHz96 kHz 88.2 kHz88.2 kHz 48 kHz48 kHz 44.1 kHz44.1 kHz 32 kHz32 kHz 44 00 00 00 00 00 24 bit24 bit 20 bit20 bits 16 bit16 bit

< Table 32 - 3D Audio Descriptor for Audio Format Code = 1 (LPCM)><Table 32 - 3D Audio Descriptor for Audio Format Code = 1 (LPCM)>

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 1One 00 00 00 00 Audio Format CodeAudio Format Code 22 00 00 00 Max Number of channels - 1Max Number of channels - 1 33 00 192 kHz192 kHz 176.4 kHz176.4 kHz 96 kHz96 kHz 88.2 kHz88.2 kHz 48 kHz48 kHz 44.1 kHz44.1 kHz 32 kHz32 kHz 44 Maximum bit rate divided by 8kHzMaximum bit rate divided by 8kHz

< Table 33 -3D Audio Descriptor for Audio Format Codes 2 to 8><Table 33 -3D Audio Descriptor for Audio Format Codes 2 to 8>

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 1One 00 00 00 00 Audio Format CodeAudio Format Code 22 00 00 00 Max Number of channels - 1Max Number of channels - 1 33 00 192 kHz192 kHz 176.4 kHz176.4 kHz 96 kHz96 kHz 88.2 kHz88.2 kHz 48 kHz48 kHz 44.1 kHz44.1 kHz 32 kHz32 kHz 44 Audio Format Code dependent valueAudio Format Code dependent value

< Table 34 - 3D Audio Descriptor for Audio Format Codes 9 to 13><Table 34 - 3D Audio Descriptor for Audio Format Codes 9 to 13>

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 1One 00 00 00 00 Audio Format Code = 1110bAudio Format Code = 1110b 22 00 00 00 Max Number of channels - 1Max Number of channels - 1 33 00 192 kHz192 kHz 176.4 kHz176.4 kHz 96 kHz96 kHz 88.2 kHz88.2 kHz 48 kHz48 kHz 44.1 kHz44.1 kHz 32 kHz32 kHz 44 Reserved (0)Reserved (0) ProfileProfile

< Table 35 - 3D Audio Descriptor for Audio Format Code 14 (WMA Pro)><Table 35 - 3D Audio Descriptor for Audio Format Code 14 (WMA Pro)>

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 1One 00 00 00 00 Audio Format Code = 1111bAudio Format Code = 1111b 22 00 00 00 Max Number of channels - 1Max Number of channels - 1 33 00 192 kHz192 kHz 176.4 kHz176.4 kHz 96 kHz96 kHz 88.2 kHz88.2 kHz 48 kHz48 kHz 44.1 kHz44.1 kHz 32 kHz32 kHz 44 Audio Format Code ExtensionAudio Format Code Extension 00 00 00

< Table 36- 3D Audio Descriptor for Audio Format Code 15 (extension)><Table 36 - 3D Audio Descriptor for Audio Format Code 15 (extension)>

OffsetOffset SymbolSymbol ValueValue DescriptionDescription NotesNotes 0x000x00 BURST_ID_HBURST_ID_H High-order byte of Burst_IDHigh-order byte of Burst_ID 0x010x01 BURST_ID_LBURST_ID_L Low-order byte of Burst_IDLow-order byte of Burst_ID 0x020x02 CHECK_SUMCHECK_SUM Checksum for WRITE_BURSTChecksum for WRITE_BURST 0x030x03 CSA_DESCCSA_DESC Indicates the channel / speaker allocation descriptor for 3D AudioIndicates the channel / speaker allocation descriptor for 3D Audio 0x040x04 0x050x05 0x060x06 0x070x07 TBDTBD TBDTBD 0x080x08 TBDTBD TBDTBD 0x090x09 TBDTBD TBDTBD 0x0A0x0A TBDTBD TBDTBD 0x0B0x0B TBDTBD TBDTBD 0x0C0x0C TBDTBD TBDTBD 0x0D0x0D TBDTBD TBDTBD 0x0E0x0E TBDTBD TBDTBD 0x0F0x0F TBDTBD TBDTBD

< Table 37 - MHL 3D Channel / Speaker Allocation Descriptor (3D_CSAD) in WRITE_BURST><Table 37 - MHL 3D Channel / Speaker Allocation Descriptor (3D_CSAD) in WRITE_BURST>

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 PB1PB1 FLW/
FRW
FLW /
FRW
BLC/
BRC
BLC /
BRC
FLC/
FRC
FLC /
FRC
BCBC BL/BRBL / BR FCFC LFE1LFE1 FL/FRFL / FR
PB2PB2 TpSiL/TpSiRTpSiL / TpSiR SiL/SiRSiL / SiR TpBCTpBC LFE2LFE2 LS/RSLS / RS TpFCTpFC TpCTpC TpFL/TpFL /
TpFRTpFR
PB3PB3 00 00 00 LSd/
LRd
LSd /
LRd
TpLS/
TpRS
TpLS /
TpRS
BtFL/
BtFR
BtFL /
BtFR
BtFCBtFC TpBL/
TpBR
TpBL /
TpBR
PB4PB4 3D_CAST (=0x01)3D_CAST (= 0x01) 00 00 00 00

< Table 38 - 3D Channel Speaker Allocation Descriptor for 10.2channel><Table 38 - 3D Channel Speaker Allocation Descriptor for 10.2channel>

굵은 글씨는 10.2채널과 관련된 지정 스피커를 나타냄.Bold text indicates the assigned speakers associated with 10.2 channels.

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 PB1PB1 FLW/
FRW
FLW /
FRW
BLC/
BRC
BLC /
BRC
FLC/FLC /
FRCFRC
BCBC BL/BRBL / BR FCFC LFE1LFE1 FL/FRFL / FR
PB2PB2 TpSiL/TpSiRTpSiL / TpSiR SiL/SiRSiL / SiR TpBCTpBC LFE2LFE2 LS/RSLS / RS TpFCTpFC TpCTpC TpFL/TpFL /
TpFRTpFR
PB3PB3 00 00 00 LSd/
LRd
LSd /
LRd
TpLS/
TpRS
TpLS /
TpRS
BtFL/BtFL /
BtFRBtFR
BtFCBtFC TpBL/TpBL /
TpBRTpBR
PB4PB4 3D_CAST (=0x02)3D_CAST (= 0x02) 00 00 00 00

< Table 39 - 3D Channel Speaker Allocation Descriptor for 22.2channel><Table 39 - 3D Channel Speaker Allocation Descriptor for 22.2channel>

굵은 글씨는 22.2채널과 관련된 지정 스피커를 나타냄Bold text indicates a specific speaker associated with the 22.2 channel.

Byte \ Bit #Byte \ Bit # 77 66 55 44 33 22 1One 00 PB1PB1 FLW/FLW /
FRWFRW
BLC/
BRC
BLC /
BRC
FLC/FLC /
FRCFRC
BCBC BL/BRBL / BR FCFC LFE1LFE1 FL/FRFL / FR
PB2PB2 TpSiL/TpSiRTpSiL / TpSiR SiL/SiRSiL / SiR TpBCTpBC LFE2LFE2 LS/RSLS / RS TpFCTpFC TpCTpC TpFL/TpFL /
TpFRTpFR
PB3PB3 00 00 00 LSd/LSd /
LRdLRd
TpLS/TpLS /
TpRSTpRS
BtFL/BtFL /
BtFRBtFR
BtFCBtFC TpBL/TpBL /
TpBRTpBR
PB4PB4 3D_CAST (=0x03)3D_CAST (= 0x03) 00 00 00 00

< Table 40 - 3D Channel Speaker Allocation Descriptor for 30.2channel><Table 40 - 3D Channel Speaker Allocation Descriptor for 30.2 channel>

굵은 글씨는 30.2채널과 관련된 지정 스피커를 나타냄Bold indicates a specific speaker associated with 30.2 channels.

3D_CAST3D_CAST DescriptionDescription 0x00x0 ReservedReserved 0x10x1 Up to 10.2 channels
Based on ITU-R BS. 2159-4 (Type B, 10.2ch)
Up to 10.2 channels
Based on ITU-R BS. 2159-4 (Type B, 10.2ch)
0x20x2 Up to 22.2 channels
Based on SMPTE 2036-2
Up to 22.2 channels
Based on SMPTE 2036-2
0x30x3 Up to 30.2 channels
Based on IEC 62574/Ed.1Reserved
Up to 30.2 channels
Based on IEC 62574 / Ed.1Reserved
0x40x4 ReservedReserved ... 0xF0xF

< Table 41 - 3D_CAST (3D Audio Channel Allocation Standard Type) field>
<Table 41 - 3D_CAST (3D Audio Channel Allocation Standard Type) field>

링크 제어 버스(Link Control Bus)Link Control Bus

디바이스 레지스터 변경 인터럽트(Device Register Change Interrupt)Device register change interrupt (Device register change interrupt)

Register NameRegister Name OffsetOffset 77 66 55 44 33 22 1One 00 RCHANGE_INTRCHANGE_INT 0x200x20 BitBit NameName SourceSource SinkSink NotesNotes 00 DCAP_CHGDCAP_CHG XX XX ... 1One 1One DSCR_CHGDSCR_CHG XX XX ... 22 22 REQ_WRTREQ_WRT XX XX ... 22 33 GRT_WRTGRT_WRT XX XX ... 22 44 3D_REQ3D_REQ XX XX ... 33 55 3D_AUD_REQ3D_AUD_REQ XX XX Request for 3D Audio InformationRequest for 3D Audio Information 44 6-76-7

< Table 42 - Register Change Interrupt Register Details><Table 42 - Register Change Interrupt Register Details>

3D_AUD_REQ는 MHL 싱크 장치로부터 3D 오디오 지원 정보를 요청하기 위해 MHL 소스 장치에 의해 사용된다. MHL 스팩 6.14 참조.
3D_AUD_REQ is used by the MHL source device to request 3D audio support information from the MHL sink device. Refer to the MHL specification 6.14.

Burst_ID CodeBurst_ID Code

SymbolSymbol ValueValue DescriptionDescription NotesNotes 3D_VIC3D_VIC 0x00100x0010 Indicates Video Index Codes for 3DIndicates Video Index Codes for 3D 1One 3D_DTD3D_DTD 0x00110x0011 Indicates Detailed Timing Descriptors for 3DIndicates Detailed Timing Descriptors for 3D 1One 3D_AD3D_AD 0x01010x0101 Indicates the 3D Audio Descriptors for 3D AudioIndicates the 3D Audio Descriptors for 3D Audio 22 3D_CSAD3D_CSAD 0x01100x0110 Indicates the 3D Channel/Speaker Allocation Descriptor for 3D AudioIndicates the 3D Channel / Speaker Allocation Descriptor for 3D Audio 22

< Table 43 - BURST_ID Codes><Table 43 - BURST_ID Codes>

3D_AD와 3D_CSAD는 오디오 연장의 지원을 나타내는데 있어 MHL 싱크 장치에 의해 사용된다. MHL 스팩 7.XX를 참조.
3D_AD and 3D_CSAD are used by the MHL sink device to indicate support for audio extension. See MHL Specification 7.XX.

제어와 구성(Control and Configuration)Control and Configuration

확장된 디바이스 성능 레지스터(Extended Device Capability Register)Extended Device Capability Register (Extended Device Capability Register)

싱크 장치는 소스 장치에 확장된 디바이스 성능 레지스터를 제공할 수 있다. 다시 말해, 소스 장치는 싱크 장치의 확장된 디바이스 성능 레지스터를 읽어올 수 있다.The sink device may provide an extended device capability register to the source device. In other words, the source device can read the extended device capability register of the sink device.

아래 테이블과 같이 MHL 스팩에서 확장된 디바이스 성능 레지스터의 어드레스 0x85를 싱크 장치가 지원하는 멀티 오디오 모드를 나타내는데 사용할 수 있다. The address 0x85 of the device capability register extended in the MHL specification can be used to indicate the multi-audio mode supported by the sink device, as shown in the table below.

AddressAddress Extended Device Capability Register NameExtended Device Capability Register Name DefinitionDefinition 0x800x80 ECBUS_SPEEDSECBUS_SPEEDS Frequencies Frequencies 0x810x81 TMDS_SPEEDSTMDS_SPEEDS TMDS FrequenciesTMDS Frequencies 0x820x82 ECBUS_TDM_SUPPORTEDECBUS_TDM_SUPPORTED Number of supported eCBUS TDM channels.Number of supported eCBUS TDM channels. 0x830x83 ECBUS_USB_ROLESECBUS_USB_ROLES Indicates USB roles supported by this device.Indicates USB roles supported by this device. 0x840x84 CABLE_REPORTCABLE_REPORT Indicates the type of cable detected at Sink.Indicates the type of cable detected at Sink. 0x850x85 MULTI_AUD_MODEMULTI_AUD_MODE Indicates the Multi-Audio modes supported by Sink.Indicates the Multi-Audio modes supported by Sink.

< Table 44 - Extended Device Capability Register Name and Definition>
< Table 44 - Extended Device Capability Register Name and Definition>

멀티 오디오 모드(Multi-Audio Mode)Multi Audio Mode (Multi-Audio Mode)

각 싱크 장치는, 지원하는 특정 멀티 오디오 모드를 등록하는 멀티오디오모드(MULTI_AUD_MODE)에 표시할 수 있다. Each sink device can be displayed in a multi-audio mode (MULTI_AUD_MODE) for registering a specific multi-audio mode supported.

멀티 오디오 모드 레지스터는 싱크 장치가 화면 분리와 관련된 멀티 오디오 수신 및 처리를 지원하는지를 나타내는 화면분리 오디오 필드(Split Screen Audio Field)를 포함한다. The multi-audio mode register includes a Split Screen Audio Field that indicates whether the sink device supports multi-audio reception and processing associated with screen separation.

Register NameRegister Name OffsetOffset 77 66 55 44 33 22 1One 00 MULTI_AUD_MODEMULTI_AUD_MODE 0x850x85 ReservedReserved SUPP_
AUD_
LANG
SUPP_
AUD_
LANG
SUPP_
AUD_
SUPPL
SUPP_
AUD_
SUPPL
SUPP_
AUD_
SPLIT
SUPP_
AUD_
SPLIT
SUPP_
AUD_
MV
SUPP_
AUD_
MV
BitBit NameName NotesNotes 00 SUPP_AUD_MVSUPP_AUD_MV Supports Multi-View Multi-Audio modeSupports Multi-View Multi-Audio mode 1One 1One SUPP_AUD_SCSUPP_AUD_SC Supports Split-Screen taggingSupports Split-Screen tagging 22 SUPP_AUD_SUPPLSUPP_AUD_SUPPL Supports Supplementary Audio mode (e.g., audio for visually/hearing impaired)Supports Supplementary Audio mode (e.g., audio for visually / hearing impaired) 33 SUPP_AUD_LANGSUPP_AUD_LANG Supports Multi-language AudioSupports Multi-language Audio 7:47: 4 ReservedReserved

< Table 45 - MULTI_AUD_MODE Register Details>
<Table 45 - MULTI_AUD_MODE Register Details>

장치가 멀티뷰 비디오 스트리밍을 지원할 능력이 없는 경우, 이 필드는 0으로 설정된다.
If the device is not capable of supporting multi-view video streaming, this field is set to zero.

멀티 스트림 오디오(Multi-Stream Audio)Multi-Stream Audio

이하에서는 본 발명의 다양한 실시 예에 따른 멀티 스트림 오디오를 설명한다. 이하에서 설명하는 멀티 스트림 오디오 전송 스팩은 HDMI, MHL를 포함하는 다양한 유무선 전송 인터페이스에서 적용될 수 있다. Hereinafter, multi-stream audio according to various embodiments of the present invention will be described. The multi-stream audio transmission specification described below can be applied to various wired / wireless transmission interfaces including HDMI and MHL.

본 발명의 소스 장치는 동시에 4개의 오디오 스트림을 전송할 수 있다. 멀티 스트림 오디오 샘플 패킷(Multi-stream Audio Sample Packet)에 대해서 모든 오디오 스트림들은 하나의 오디오 인포프레임(Infoframe)을 공유한다. The source apparatus of the present invention can simultaneously transmit four audio streams. For multi-stream Audio Sample Packets, all audio streams share an Audio Infoframe.

본 발명의 다양한 실시 예에 따른 유선 인터페이스는 싱글 뷰 비디오 스트리밍에 대한 지원(예를 들어, 여러 언어(multi-lingual)를 지원하거나 시각/청각 장애인을 위한 오디오 등)을 추가할 수 있다. 이는 오디오 메타 데이터 패킷(Audio Metadata Packet)을 수정하거나 HDMI 오디오 데이터 블록(HDMI Audio Data Block)을 수정하여 할 수 있다. The wired interface according to various embodiments of the present invention may add support for single-view video streaming (e.g., supporting multi-lingual or audio for the visually impaired). This can be done by modifying the Audio Metadata Packet or by modifying the HDMI Audio Data Block.

예를 들어, 아래 테이블 46과 같이 멀티 스트림 오디오는 여러 언어를 지원하고, 오디오는 2채널로 지원될 수 있다. For example, as shown in Table 46 below, multi-stream audio may support multiple languages and audio may be supported by two channels.

Figure pat00012
Figure pat00012

< Table 46 -Overview of Supports of Multi-stream Audio for single view>
<Table 46 -Overview of Supports of Multi-stream Audio for single view>

시나리오scenario

아래 테이블은 가능한 시나리오를 도시한다.The table below shows possible scenarios.

Figure pat00013
Figure pat00013

< Table 47 - Scenarios of Multi-stream Audio Sample Packet>
<Table 47 - Scenarios of Multi-stream Audio Sample Packet>

4개의 서브 패킷을 갖는 멀티 스트림 오디오 샘플 패킷의 경우 1) 싱글 뷰를 위한 오디오 디스크립션(audio description)과 함께 싱글 TV 프로그램이 전송되는 경우 스트림 0은 노멀(normal) 오디오 신호를 포함하고, 스트림 1은 시각 장애인을 위한 오디오 디스크립션 신호를 포함할 수 있다. For a multi-stream audio sample packet with four subpackets: 1) when a single TV program is transmitted with an audio description for a single view, stream 0 contains a normal audio signal and stream 1 contains And may include an audio description signal for the blind.

2) 상기 싱글 뷰에서 2개 국어를 지원하는 경우, 지원되는 언어로 된 오디오 신호 스트림 2개와, 각각에 대응되는 오디오 디스크립션이 함께 전송된다. 예를 들어, 영어와 한국어가 지원되는 경우, 스트림 0은 한국어 노멀 오디오 신호, 스트림 1은 시각 장애인을 위한 한국어 오디오 디스크립션 신호, 스트림 2는 영어 노멀 오디오 신호, 스트림 3은 시각 장애인을 위한 영어 오디오 디스크립션 신호를 각각 포함할 수 있다. 2) In the case of supporting two languages in the single view, two audio signal streams in a supported language and an audio description corresponding thereto are transmitted together. For example, when English and Korean are supported, stream 0 is Korean normal audio signal, stream 1 is Korean audio description signal for blind, stream 2 is English normal audio signal, stream 3 is English audio description Signals, respectively.

3)싱글 뷰에서 한가지 언어로 된 오디오 신호 스트림 하나와 이에 대한 상이한 언어로 지원되는 시각 장애인을 위한 오디오 디스크립션 신호가 두 개 전송될 수도 있다. 예를 들어, 스트림 0은 한국어 또는 영어 노멀 오디오 신호, 스트림 1은 시각 장애인을 위한 한국어 오디오 디스크립션 신호, 스트림 2는 시각 장애인을 위한 영어 오디오 디스크립션 신호를 각각 포함할 수 있다. 3) Two audio description signals may be transmitted for one visually impaired person in a single view with one language audio signal stream and different languages for this. For example, stream 0 may include a Korean or English normal audio signal, stream 1 may include a Korean audio description signal for a blind person, and stream 2 may include an English audio description signal for a blind person, respectively.

4) 소스 장치가 멀티뷰를 위한 오디오 신호를 전송할 수도 있다. 듀얼 뷰가 지원되는 경우, 가장 기본적인 형태는 각 뷰에 대한 오디오 신호를 하나의 전송 스트림으로 전송하는 것이다. 듀얼 뷰의 경우 독립적인 제1 뷰와 제2 뷰를 포함하고, 각 뷰는 독립적인 콘텐츠를 제공한다. 4) The source device may send an audio signal for multi-view. When dual view is supported, the most basic form is to transmit the audio signal for each view in one transport stream. In the case of a dual view, it includes independent first and second views, each providing independent content.

5) 각 뷰에 대해 2개 국어가 지원될 수 있다. 이 경우, 제1 뷰에 대한 제1 언어로 된 오디오 신호 스트림, 제1 뷰에 대한 제2 언어로 된 오디오 신호 스트림, 제2 뷰에 대한 제1 언어로 된 오디오 신호 스트림, 제2 뷰에 대한 제2 언어로 된 오디오 신호 스트림이 각각 전송될 수 있다. 예를 들어, 영어와 한국어가 지원되는 경우, 스트림 0은 제1 뷰에 대한 한국어 오디오 신호, 스트림 1은 제1 뷰에 대한 영어 오디오 신호, 스트림 2는 제2 뷰에 대한 한국어 오디오 신호, 스트림 3은 제2 뷰에 대한 영어 오디오 신호를 포함할 수 있다. 5) Two languages may be supported for each view. In this case, an audio signal stream in a first language for a first view, an audio signal stream in a second language for a first view, an audio signal stream in a first language for a second view, An audio signal stream in a second language can be transmitted, respectively. For example, if English and Korean are supported, stream 0 is the Korean audio signal for the first view, stream 1 is the English audio signal for the first view, stream 2 is the Korean audio signal for the second view, stream 3 May include an English audio signal for the second view.

6) 듀얼 뷰의 경우 어느 하나의 뷰는 시각장애인을 위한 오디오 디스크립션 신호를 더 전송할 수 있다. 즉, 제1 뷰에 대한 오디오 신호 스트림, 제2 뷰에 대한 노멀 오디오 신호 스트림, 제2 뷰에 대한 시각 장애인을 위한 오디오 디스크립션 신호 스트림이 각각 전송될 수 있다. 예를 들어, 스트림 0은 제1 뷰에 대한 오디오 신호, 스트림 1은 제2 뷰에 대한 오디오 신호, 스트림 3은 제2 뷰에 대한 오디오 디스크립션 신호를 포함할 수 있다. 6) In the case of dual view, one of the views can further transmit an audio description signal for the visually impaired. That is, an audio signal stream for the first view, a normal audio signal stream for the second view, and an audio description signal stream for the blind can be transmitted to the second view, respectively. For example, stream 0 may include an audio signal for a first view, stream 1 may be an audio signal for a second view, and stream 3 may include an audio description signal for a second view.

7) 하나의 스트림은 공통 오디오 신호를 전송하는데 사용할 수도 있다. 즉, 제1 뷰와 제2 뷰에 대한 공통 오디오 신호 스트림, 제1 뷰 전용 오디오 스트림, 제2 뷰 전용 오디오 스트림이 각각 전송될 수 있다. 이 경우 수신단에서는 공통 오디오 스트림과 전용 오디오 스트림을 먹싱(Muxing)하여 출력한다. 이러한 시나리오는 게임의 경우 적용될 수 있다. 예를 들어, 스트림 0은 제1 뷰와 제2 뷰에 대한 공통 오디오 신호(예를 들어, 배경음향, 진행 안내 보이스 등), 스트림 1은 제1 뷰에 대한 전용 오디오 신호, 스트림 2는 제2 뷰에 대한 전용 오디오 신호를 포함할 수 있다.
7) One stream may be used to transmit a common audio signal. That is, the common audio signal stream for the first view and the second view, the first view only audio stream, and the second view only audio stream, respectively, can be transmitted. In this case, the receiving end muxes and outputs the common audio stream and the dedicated audio stream. These scenarios can be applied to games. For example, stream 0 is a common audio signal (e.g., background sound, progressive voice, etc.) for the first and second views, stream 1 is a dedicated audio signal for the first view, stream 2 is a second And may include a dedicated audio signal for the view.

도 7은 본 발명의 일 실시 예에 따른 데이터 송수신 시스템(1000-1)의 구성을 도시한 블록도이다. 7 is a block diagram showing the configuration of a data transmission / reception system 1000-1 according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 일 실시 예에 따른 데이터 송수신 시스템(1000-1)은, 데이터 전송 장치(100-1)와 데이터 수신 장치(200-1)를 포함한다. Referring to FIG. 7, a data transmission / reception system 1000-1 according to an embodiment of the present invention includes a data transmission apparatus 100-1 and a data reception apparatus 200-1.

데이터 전송 장치(100-1)는 제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 데이터 수신 장치(200-1)로 전송한다. The data transmission apparatus 100-1 transmits the packet including the first subpacket and the second subpacket to the data receiving apparatus 200-1.

데이터 수신 장치(200-1)는 상기 데이터 전송 장치(100-1)로부터 제1 서브 패킷 및 제2 서브 패킷 포함하는 상기 패킷을 수신한다.The data receiving apparatus 200-1 receives the packet including the first subpacket and the second subpacket from the data transmission apparatus 100-1.

이때, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함한다. At this time, the first subpacket and the second subpacket include different audio data for the first content.

이하에서 데이터 전송 장치(100-1)와 데이터 수신 장치(200-1)의 구성을 좀더 상세하게 설명한다. Hereinafter, the configurations of the data transmission apparatus 100-1 and the data reception apparatus 200-1 will be described in more detail.

도 8은, 본 발명의 일 실시 예에 따른 데이터 전송 장치(100-1)의 구성을 도시한 블록도이다.8 is a block diagram showing a configuration of a data transmission apparatus 100-1 according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시 예에 따른 데이터 전송 장치(100-1)는, 패킷 생성부(110)와 전송부(120)를 포함한다.Referring to FIG. 8, a data transmission apparatus 100-1 according to an embodiment of the present invention includes a packet generation unit 110 and a transmission unit 120. FIG.

패킷 생성부(110)는, 제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 생성한다. 이때, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함한다. The packet generation unit 110 generates a packet including the first subpacket and the second subpacket. At this time, the first subpacket and the second subpacket include different audio data for the first content.

전송부(120)는 상기 생성된 패킷을 데이터 수신 장치(200-1)로 전송한다. The transmitting unit 120 transmits the generated packet to the data receiving apparatus 200-1.

이때, 상기 제1 서브 패킷은 비장애인을 위한 오디오 데이터를 포함하고, 상기 제2 서브 패킷은 시각 장애인을 위한 오디오 데이터를 포함할 수 있다.At this time, the first subpacket includes audio data for a non-disabled person, and the second subpacket may include audio data for a blind person.

또한, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 상이한 언어로 된 오디오 데이터를 포함할 수 있다.In addition, the first subpacket and the second subpacket may include audio data in a different language.

또한, 상기 제1 서브 패킷은 상기 제2 서브 패킷에 대한 오디오 디스크립션에 해당하는 오디오 데이터를 포함할 수 있다.In addition, the first subpacket may include audio data corresponding to the audio description of the second subpacket.

또한, 상기 패킷은, 상기 제1 콘텐츠와 상이한 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제3 서브 패킷을 더 포함할 수 있다.In addition, the packet may further include a third subpacket including audio data for a second content different from the first content.

이때, 상기 제1 서브 패킷이 포함하는 오디오 데이터는 상기 제1 콘텐츠에 대한 전용 오디오 데이터이고, 상기 제3 서브 패킷이 포함하는 오디오 데이터는 상기 제2 콘텐츠에 대한 전용 오디오 데이터이며, 상기 제2 서브 패킷이 포함하는 오디오 데이터는, 상기 제1 콘텐츠 및 상기 제2 콘텐츠에 대한 공통 오디오 데이터가 될 수 있다.At this time, the audio data included in the first subpacket is dedicated audio data for the first content, the audio data included in the third subpacket is dedicated audio data for the second content, The audio data included in the packet may be common audio data for the first content and the second content.

또한, 상기 패킷은, 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제4 서브 패킷을 더 포함할 수 있고, 상기 제3 서브 패킷과 상기 제4 서브 패킷은 상이한 오디오 데이터를 포함할 수 있다. In addition, the packet may further include a fourth subpacket including audio data for a second content, and the third subpacket and the fourth subpacket may include different audio data.

도 9는, 본 발명의 일 실시 예에 따른 데이터 수신 장치(200-1)의 구성을 도시한 블록도이다.9 is a block diagram showing a configuration of a data receiving apparatus 200-1 according to an embodiment of the present invention.

도 9를 참조하면, 본 발명의 일 실시 예에 따른 데이터 수신 장치(200-1)는, 수신부(210)와 파싱부(220)를 포함한다. Referring to FIG. 9, a data receiving apparatus 200-1 according to an embodiment of the present invention includes a receiving unit 210 and a parsing unit 220. FIG.

수신부(210)는, 데이터 전송 장치(100-1)로부터 제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 수신한다. 이때, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함할 수 있다.The receiving unit 210 receives the packets including the first subpacket and the second subpacket from the data transmission apparatus 100-1. At this time, the first subpacket and the second subpacket may include different audio data for the first content.

파싱부(220)는, 상기 수신된 제1 서브 패킷 및 상기 제2 서브 패킷을 파싱하는 구성이다. The parsing unit 220 parses the received first subpacket and the second subpacket.

상기 제1 서브 패킷 및 상기 제2 서브 패킷은 상이한 언어로 된 오디오 데이터를 포함할 수 있다.The first subpacket and the second subpacket may include audio data in different languages.

이와 달리, 상기 제1 서브 패킷은 상기 제2 서브 패킷에 대한 오디오 디스크립션에 해당하는 오디오 데이터를 포함할 수 있다.Alternatively, the first subpacket may include audio data corresponding to the audio description of the second subpacket.

또한, 상기 패킷은, 상기 제1 콘텐츠와 상이한 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제3 서브 패킷을 더 포함할 수 있다.In addition, the packet may further include a third subpacket including audio data for a second content different from the first content.

이때, 상기 제1 서브 패킷이 포함하는 오디오 데이터는 상기 제1 콘텐츠에 대한 전용 오디오 데이터이고, 상기 제3 서브 패킷이 포함하는 오디오 데이터는 상기 제2 콘텐츠에 대한 전용 오디오 데이터이며, 상기 제2 서브 패킷이 포함하는 오디오 데이터는, 상기 제1 콘텐츠 및 상기 제2 콘텐츠에 대한 공통 오디오 데이터가 될 수 있다.At this time, the audio data included in the first subpacket is dedicated audio data for the first content, the audio data included in the third subpacket is dedicated audio data for the second content, The audio data included in the packet may be common audio data for the first content and the second content.

또한, 상기 패킷은, 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제4 서브 패킷을 더 포함할 수 있고, 상기 제3 서브 패킷과 상기 제4 서브 패킷은 상이한 오디오 데이터를 포함할 수 있다.
In addition, the packet may further include a fourth subpacket including audio data for a second content, and the third subpacket and the fourth subpacket may include different audio data.

오디오 메타 데이터 패킷(Audio Metadata Packet)Audio Metadata Packet

소스 장치는 오디오 메타 데이터 패킷을 싱크 장치로 전송하여, 전송되는 오디오 스팩을 알려준다. 이때, 오디오 메타 데이터 패킷의 헤더는 하기와 같은 구조를 갖는다. The source device sends an audio metadata packet to the sink device to indicate the audio specification to be transmitted. At this time, the header of the audio metadata packet has the following structure.

Figure pat00014
Figure pat00014

< Table 48 - Audio Metadata Packet Header>
<Table 48 - Audio Metadata Packet Header>

각 필드를 설명하면 다음과 같다.Each field is described as follows.

3D 오디오 필드(3D_AUDIO) [1bit]: 3D_AUDIO=1이면, 오디오 메타 데이터 패킷(Audio Metadata Packet)은 3D 오디오 채널 카운트(3D Audio Channel count : 3D_CC필드. 아래 테이블 참조)와 채널/스피커 할당 정보(ACAST : Audio Channel Allocation Standard Type) 필드(아래 테이블 참조)를 포함한다. 소스가 3D 오디오 패킷을 전송할 때, 이러한 필드는 1로 설정될 것이다. If the 3D audio field (3D_AUDIO) [1 bit]: 3D_AUDIO = 1, the audio metadata packet includes 3D audio channel count (3D_CC field, see table below) and channel / : Audio Channel Allocation Standard Type) field (see table below). When the source transmits a 3D audio packet, this field will be set to one.

뷰 개수 필드(NUM_VIEWS) [2bits] : 뷰의 개수를 나타낸다. NUM_VIEWS=00이면, 싱글뷰 비디오 스트리밍이 지원된다. NUM_VIEWS=01이면, 듀얼뷰 비디오 스트리밍이 지원된다. 이 모드는 VSIF에서의 3D_DualView=1인 경우만 허용된다. 나머지 NUM_VIEWS 값에 대해서는 미래의 사용을 위해 리저브되어 있다. View Count Field (NUM_VIEWS) [2bits]: Indicates the number of views. If NUM_VIEWS = 00, single-view video streaming is supported. If NUM_VIEWS = 01, dual-view video streaming is supported. This mode is only allowed if 3D_DualView = 1 in VSIF. The remaining NUM_VIEWS values are reserved for future use.

오디오 스트림 개수 필드(NUM_AUDIO_STR) [2bits]: 오디오 스트림의 개수-1을 나타낸다. NUM_AUDIO_STR=01, 10, 또는 11인 경우, 오디오 메타 데이터 패킷(Audio Metadata Packet)은 최대 4개까지 오디오 메타 데이터 디스크립터(audio metadata descriptor)를 포함하고, 각각은 오디오 스트림에 대응된다. Audio stream number field (NUM_AUDIO_STR) [2 bits]: Indicates the number of audio streams -1. If NUM_AUDIO_STR = 01, 10, or 11, the Audio Metadata Packet includes up to four audio metadata descriptors, each corresponding to an audio stream.

Figure pat00015
Figure pat00015

< Table 49 - Valid Combinations>
<Table 49 - Valid Combinations>

아래 테이블은 3D오디오를 위한 오디오 메타 데이터 패킷의 페이로드를 나태낸다. 3D_Audio=1인 경우 메타 데이터 패킷 페이로드는 아래의 구조를 갖는다. The table below describes the payload of audio metadata packets for 3D audio. When 3D_Audio = 1, the metadata packet payload has the following structure.

Figure pat00016
Figure pat00016

< Table 50 ? Audio Metadata Packet Payload(3D_AUDIO==1)>
<Table 50? Audio Metadata Packet Payload (3D_AUDIO == 1)>

즉, 3D 오디오 채널 카운트 정보를 나타내는 3D_CC필드와, 소스에 의해 제공되는 오디오 채널 할당 표준 타입을 표시하는 ACAST필드를 포함한다. That is, a 3D_CC field indicating 3D audio channel count information and an ACAST field indicating an audio channel allocation standard type provided by the source are included.

테이블 51은 3D_CC 값에 따른 오디오 채널을 나타내고 있으며, 테이블 52는 ACAST필드 값에 따른 오디오 채널 할당 표준 타입을 나타낸다.Table 51 shows the audio channel according to the 3D_CC value, and Table 52 shows the audio channel allocation standard type according to the ACAST field value.

3D_CC43D_CC4 3D_CC33D_CC3 3D_CC23D_CC2 3D_CC13D_CC1 3D_CC03D_CC0 Audio Channel CountAudio Channel Count 00 00 00 00 00 Refer to Stream HeaderRefer to Stream Header 00 00 00 00 1One 2 channels2 channels 00 00 00 1One 00 3 channels3 channels 00 00 00 1One 1One 4 channels4 channels 00 00 1One 00 00 5 channels5 channels 00 00 1One 00 1One 6 channels6 channels 00 00 1One 1One 00 7 channels7 channels 00 00 1One 1One 1One 8 channels8 channels 00 1One 00 00 00 9 channels9 channels 00 1One 00 00 1One 10 channels10 channels 00 1One 00 1One 00 11 channels11 channels 00 1One 00 1One 1One 12 channels12 channels -- -- -- -- -- 1One 1One 1One 1One 1One 32 channels32 channels

< Table 51 3D_CC field><Table 51 3D_CC field>

ACAT3ACAT3 ACAT2ACAT2 ACAT1ACAT1 ACAT0ACAT0 DescriptionDescription 00 00 00 00 ReservedReserved 00 00 00 1One Refer to 10 2 channels (TTA Standard)Refer to 10 2 channels (TTA Standard) 00 00 1One 00 Refer to 22 2 channels (SMPTE2036-2)Refer to 22 2 channels (SMPTE2036-2) 00 00 1One 1One Refer to 30 2 channels (IEC62574/Ed 1)Refer to 30 2 channels (IEC62574 / Ed 1) 00 1One 00 00 reservedreserved 1One 1One 1One 1One

< Table 52 - Audio Channel Allocation Standard Type field>
<Table 52 - Audio Channel Allocation Standard Type field>

아래 테이블은 멀티 스트림 오디오를 위한 오디오 메타 데이터 패킷의 페이로드를 나태낸다. 3D_Audio=0인 경우 메타 데이터 패킷 페이로드는 아래의 구조를 갖는다. The table below lists the payload of audio metadata packets for multi-stream audio. When 3D_Audio = 0, the metadata packet payload has the following structure.

Figure pat00017
Figure pat00017

< Table 53 ? Audio Metadata Packet Payload(3D_AUDIO==0)>
<Table 53? Audio Metadata Packet Payload (3D_AUDIO == 0)>

상기 테이블 53에 도시된 것처럼 오디오 메타 데이터 패킷의 페이로드는 각각 5 바이트 짜리 오디오 메타 데이터 디스크립터(Audio_Metadata_Descriptor)를 포함한다. 오디오 메타 데이터 디스크립터(4 필드, 각 5바이트)는 멀티 스트림 오디오 샘플 패킷(Multi-stream Audio Sample Packet)에서 서브 패킷 X에 대한 오디오 메타 데이터 또는 멀티 스트림 원비트 오디오 샘플 패킷(Multi-stream One Bit Audio Sample Packet)에서 서브패킷 X에 대한 오디오 메타 데이터를 표현한다. 오디오 메타 데이터 디스크립터는 하기에서 구조가 설명된다. As shown in Table 53, the payload of the audio metadata packet includes an audio metadata descriptor (Audio_Metadata_Descriptor) of 5 bytes each. The audio metadata descriptor (4 fields, 5 bytes each) is composed of audio metadata for subpacket X or multi-stream One Bit Audio sample packets in a multi-stream Audio Sample Packet Sample Packet) represents audio metadata for subpacket X. The structure of the audio metadata descriptor will be described below.

Figure pat00018
Figure pat00018

< Table 54 - Audio Metadata Descriptor(멀티 스트림 ASP에서 각 서브패킷 X에 대한 것임)>
<Table 54 - Audio Metadata Descriptor (for each subpacket X in multi-stream ASP)>

각 필드를 설명하면 아래와 같다. Each field is described below.

긴급 채널 필드(Emergency_Channel) [1bit] : Emergency_Channel=1이면, 대응되는 오디오 스트림은 긴급 경고 오디오 데이터를 전송한다. 수신 장치는 스크립트 등을 통해 긴급 방송이 있음을 알릴 수 있고, 사용자는 오디오 선택을 통해 수신받은 긴급 경고 오디오 신호를 출력시킬 수 있다.Emergency Channel (Emergency_Channel) [1 bit]: If Emergency_Channel = 1, the corresponding audio stream transmits emergency alert audio data. The receiving apparatus can notify that there is emergency broadcasting through a script or the like and the user can output the emergency warning audio signal received through the audio selection.

멀티뷰 필드(좌측)(Multiview_Left) [1bit] : Multiview_Left=1이면, 대응되는 오디오 스트림이 3D 비디오 포맷에서 좌측 입체 영상에 매핑된다. 만일 Multiview_Left=0이면, 이 필드는 NUM_VIEWS=01인 경우만, 유효하다. Multiview_Left [1bit]: If Multiview_Left = 1, the corresponding audio stream is mapped to the left stereoscopic image in the 3D video format. If Multiview_Left = 0, this field is valid only if NUM_VIEWS = 01.

멀티뷰 필드(우측)(Multiview_Right [1bit] : Multiview_Right=1이면, 대응되는 오디오 스트림이 3D 비디오 포맷에서 우측 입체 영상에 매핑된다. 만일 Multiview_Right=0이면, 이 필드는 NUM_VIEWS=01인 경우만, 유효하다. If Multiview_Right [1 bit]: Multiview_Right = 1, the corresponding audio stream is mapped to the right stereoscopic image in the 3D video format. If Multiview_Right = 0, this field is valid only when NUM_VIEWS = 01 Do.

언어 코드 유효 필드(LC_Valid) [1bit]: LC_Valid=1이면, 언어 코드(Language_Code)가 유효하고, 대응되는 오디오 스트림의 언어를 정확하게 식별한다. 그렇지 않으면, 대응되는 오디오 스트림의 언어는 명시되지 않는 것으로 된다. Language code valid field (LC_Valid) [1 bit]: If LC_Valid = 1, the language code (Language_Code) is valid and correctly identifies the language of the corresponding audio stream. Otherwise, the language of the corresponding audio stream is not specified.

보조 오디오 유효 필드(Suppl_A_Valid) [1bit]: Suppl_A_Valid=1이면, 대응되는 오디오 스트림은 Suppl_A_Type에 의해 나타난 보조 오디오 트랙(supplemental audio track)을 포함한다. If the auxiliary audio valid field (Suppl_A_Valid) [1 bit]: Suppl_A_Valid = 1, the corresponding audio stream contains a supplemental audio track indicated by Suppl_A_Type.

프리믹스 보조 오디오 필드(Suppl_A_Mixed [1bit]: Suppl_A_Mixed=1이면, 대응되는 오디오 스트림은 메인 오디오 컴포넌트와 Suppl_A_Type에 의해 나타난 프리 믹스 보조 오디오 트랙(pre-mixed supplemental audio track)을 포함할 수 있다. 이 비트는 Suppl_A_Valid=1인 경우만 유효하다.If the pre-mix auxiliary audio field Suppl_A_Mixed [1 bit]: Suppl_A_Mixed = 1, the corresponding audio stream may include a pre-mixed supplemental audio track indicated by the main audio component and Suppl_A_Type. Valid only when Suppl_A_Valid = 1.

보조 오디오 타입 필드(Suppl_A_Type) [3bits] : 하기의 테이블에서 정의된 보조 오디오 타입을 나타낸다. 이 필드는 Suppl_A_Valid=1인 경우만 유효하다. 테이블 55는 보조 오디오 타입 필드 값의 디스크립션을 나타낸다. Auxiliary audio type field (Suppl_A_Type) [3 bits]: Represents auxiliary audio type defined in the following table. This field is valid only when Suppl_A_Valid = 1. Table 55 shows a description of the auxiliary audio type field value.

언어 코드(Language_Code) [3Bytes]: 대응되는 오디오 스트림의 언어를 식별한다. 언어 코드는 ISO639에서 정의된다. 그리고, 3 캐릭터 코드가 위치하는데, 마지막 캐릭터 코드는 오디오 메타 데이터 디스크립터 X(Audio_Metadata_Descriptor_X)의 마지막 바이트와 일치한다. 이 필드는 LC_Valid=1인 경우만 유효하다.Language code (Language_Code) [3Bytes]: Identifies the language of the corresponding audio stream. The language code is defined in ISO639. Then, the 3-character code is located, and the last character code coincides with the last byte of the audio metadata descriptor X (Audio_Metadata_Descriptor_X). This field is valid only when LC_Valid = 1.

Figure pat00019
Figure pat00019

< Table 55 - SUPPL_A_TYPE 필드>
<Table 55 - SUPPL_A_TYPE field>

도 10은 본 발명의 다른 실시 예에 따른 데이터 송수신 시스템(1000-2)의 구성을 도시한 블록도이다. 10 is a block diagram showing the configuration of a data transmission / reception system 1000-2 according to another embodiment of the present invention.

도 10을 참조하면, 본 발명의 다른 실시 예에 따른 데이터 송수신 시스템(1000-2)은, 데이터 전송 장치(100-2)와 데이터 수신 장치(200-2)를 포함한다.Referring to FIG. 10, a data transmission / reception system 1000-2 according to another embodiment of the present invention includes a data transmission apparatus 100-2 and a data reception apparatus 200-2.

데이터 전송 장치(100-2)는, 오디오 메타 데이터 패킷을 생성하여 데이터 수신 장치(200-2)로 전송한다. The data transmission apparatus 100-2 generates an audio metadata packet and transmits it to the data reception apparatus 200-2.

데이터 수신 장치(200-2)는, 상기 데이터 전송 장치(100-2)로부터 상기 오디오 메타 데이터 패킷을 수신한다. The data receiving apparatus 200-2 receives the audio metadata packet from the data transmitting apparatus 100-2.

이때, 상기 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함한다. At this time, a header of the audio metadata packet includes a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.

이하에서는 데이터 전송장치(100-2)와 데이터 수신 장치(200-2)의 구성과 오디오 메타 데이터 패킷의 구성을 좀더 상세하게 설명한다.Hereinafter, the configuration of the data transmission apparatus 100-2 and the data reception apparatus 200-2 and the configuration of the audio metadata packet will be described in more detail.

도 11은 본 발명의 다른 실시 예에 따른 데이터 전송 장치(100-2)는, 패킷 생성부(110)와 전송부(120)를 포함한다. 11, the data transmission apparatus 100-2 includes a packet generation unit 110 and a transmission unit 120 according to another embodiment of the present invention.

패킷 생성부(110)는, 오디오 메타 데이터 패킷을 생성한다. 상기 생성된 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함할 수 있다.The packet generation unit 110 generates an audio metadata packet. The header of the generated audio metadata packet may include a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.

전송부(120)는, 상기 생성된 오디오 메타 데이터 패킷을 데이터 수신 장치(200-2)로 전송한다. The transmitting unit 120 transmits the generated audio metadata packet to the data receiving apparatus 200-2.

또한, 상기 생성된 오디오 메타 데이터 패킷의 헤더는, 전송되는 오디오 스트림의 개수 정보를 나타내는 오디오 스트림 개수 필드(Number Of Audio Stream Field)를 더 포함할 수 있다.In addition, the header of the generated audio metadata packet may further include a number of audio stream field indicating the number of audio streams to be transmitted.

또한, 상기 생성된 오디오 메타 데이터 패킷의 헤더는, 전송되는 상이한 콘텐츠의 개수 정보를 나타내는 뷰 개수 필드(Number Of Views Field)를 더 포함할 수 있다. In addition, the header of the generated audio metadata packet may further include a number of view field indicating the number of pieces of different contents to be transmitted.

또한, 상기 생성된 오디오 메타 데이터 패킷의 페이로드(payload)는, 멀티 스트림 오디오 샘플 패킷(Multi-stream Audio Sample Packet) 또는 멀티 스트림 원비트 오디오 샘플 패킷(Multi-stream One Bit Audio Sample Packet)의 서브패킷에 대한 메타 데이터를 나타내는 오디오 메타 데이터 디스크립터 필드를 포함할 수 있다. In addition, the payload of the generated audio metadata packet may be divided into a multi-stream Audio Sample Packet or a Multi-stream One Bit Audio Sample Packet And an audio metadata descriptor field indicating metadata about the packet.

또한, 상기 오디오 메타 데이터 디스크립터 필드는, 긴급 상황 방송이 있는지를 나타내는 긴급 채널 필드(Emergency Channel Field), 멀티 뷰에서 좌안 또는 우안 영상에 대응되는 오디오 데이터를 포함하는지를 나타내는 멀티뷰 필드(Multivew Field), 오디오 데이터에 대한 언어의 식별 유무를 나타내는 언어 코드 유효 필드(Language Code Valid Field), 보조 오디오 데이터 유무를 나타내는 보조 오디오 유효 필드(Supplemental Audio Valid Field), 메인 오디오 데이터와 상기 보조 오디오 데이터의 프리 믹스 여부를 나타내는 프리믹스 보조 오디오 필드(pre-mixed Supplemental Audio Field), 상기 보조 오디오 데이터의 타입을 나타내는 보조 오디오 타입 필드(Supplemental Audio Type Field), 및 오디오 데이터에 대한 언어 코드를 나타내는 언어 코드 필드(Language Code Field) 중 적어도 하나를 포함할 수 있다. In addition, the audio metadata descriptor field includes an emergency channel field indicating whether there is an emergency broadcast, a multi-view field indicating whether audio data corresponding to the left or right eye image is included in the multi-view, A language code valid field indicating whether or not the language is identified with respect to the audio data, a supplemental audio valid field indicating the presence or absence of the auxiliary audio data, whether or not the main audio data and the auxiliary audio data are premixed A supplemental audio type field indicating a type of the auxiliary audio data and a language code field indicating a language code for the audio data, ) &Lt; / RTI &gt; have.

도 12는 본 발명의 다른 실시 예에 따른 데이터 수신 장치(200-2)의 구성을 도시한 블록도이다.12 is a block diagram showing the configuration of a data receiving apparatus 200-2 according to another embodiment of the present invention.

도 12를 참조하면, 본 발명의 다른 실시 예에 따른 데이터 수신 장치(200-2)는, 수신부(210)와, 파싱부(220)를 포함한다. Referring to FIG. 12, a data receiving apparatus 200-2 according to another embodiment of the present invention includes a receiving unit 210 and a parsing unit 220. FIG.

수신부(210)는, 데이터 전송 장치(100-2)로부터 오디오 메타 데이터 패킷을 수신하는 구성이다. 상기 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함한다. The receiving unit 210 receives the audio metadata packet from the data transmitting apparatus 100-2. The header of the audio metadata packet includes a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.

파싱부(220)는, 상기 수신된 오디오 메타 데이터 패킷을 파싱하는 구성이다. The parser 220 parses the received audio metadata packet.

또한, 상기 오디오 메타 데이터 패킷의 헤더는, 수신되는 오디오 스트림의 개수 정보를 나타내는 오디오 스트림 개수 필드(Number Of Audio Stream Field)를 더 포함할 수 있다. The header of the audio metadata packet may further include a number of audio stream field indicating the number of audio streams to be received.

또한, 상기 오디오 메타 데이터 패킷의 헤더는, 수신되는 상이한 콘텐츠의 개수 정보를 나타내는 뷰 개수 필드(Number Of Views Field)를 더 포함할 수 있다. In addition, the header of the audio metadata packet may further include a number of view field indicating the number of pieces of different contents to be received.

또한, 상기 오디오 메타 데이터 패킷의 페이로드(payload)는, 멀티 스트림 오디오 샘플 패킷(Multi-stream Audio Sample Packet) 또는 멀티 스트림 원비트 오디오 샘플 패킷(Multi-stream One Bit Audio Sample Packet)의 서브패킷에 대한 메타 데이터를 나타내는 오디오 메타 데이터 디스크립터 필드를 포함할 수 있다. The payload of the audio metadata packet may be a sub-packet of a multi-stream audio sample packet or a multi-stream one-bit audio sample packet. Lt; RTI ID = 0.0 &gt; metadata metadata descriptor field. &Lt; / RTI &gt;

이때, 상기 오디오 메타 데이터 디스크립터 필드는, 긴급 상황 방송이 있는지를 나타내는 긴급 채널 필드(Emergency Channel Field), 멀티 뷰에서 좌안 또는 우안 영상에 대응되는 오디오 데이터를 포함하는지를 나타내는 멀티뷰 필드(Multivew Field), 오디오 데이터에 대한 언어의 식별 유무를 나타내는 언어 코드 유효 필드(Language Code Valid Field), 보조 오디오 데이터 유무를 나타내는 보조 오디오 유효 필드(Supplemental Audio Valid Field), 메인 오디오 데이터와 상기 보조 오디오 데이터의 프리 믹스 여부를 나타내는 프리믹스 보조 오디오 필드(pre-mixed Supplemental Audio Field), 상기 보조 오디오 데이터의 타입을 나타내는 보조 오디오 타입 필드(Supplemental Audio Type Field), 및 오디오 데이터에 대한 언어 코드를 나타내는 언어 코드 필드(Language Code Field) 중 적어도 하나를 포함할 수 있다.
In this case, the audio metadata descriptor field includes an emergency channel field indicating whether there is an emergency broadcasting, a multi-view field indicating whether the audio data corresponding to the left or right eye image is included in the multi-view, A language code valid field indicating whether or not the language is identified with respect to the audio data, a supplemental audio valid field indicating the presence or absence of the auxiliary audio data, whether or not the main audio data and the auxiliary audio data are premixed A supplemental audio type field indicating a type of the auxiliary audio data and a language code field indicating a language code for the audio data, ) &Lt; / RTI &gt; have.

오디오 데이터 블록(Audio Data Block)Audio Data Block

아래는 EDID (Extended Display Identification Data)의 오디오 데이터 블록을 나타내는 테이블이다. 아래 테이블에서 3-4바이트 부분은 하기의 테이블로 재정의한다. The table below shows audio data blocks of EDID (Extended Display Identification Data). In the table below, we redefine the 3-4 byte part with the table below.

또한, 멀티스트림 오디오를 위한 새로운 단축 오디오 디스크립터(Short Audio Descriptor : SAD)는 삭제하고, 대신에 EDID에서 정의된 노멀(normal) SAD 를 사용한다. 추가된 내용에 따르면, 2개의 채널까지 전송될 수 있다.Also, the new Short Audio Descriptor (SAD) for multi-stream audio is deleted and instead the normal SAD defined in the EDID is used. According to the added contents, up to two channels can be transmitted.

Figure pat00020
Figure pat00020

< Table 56 - HDMI Audio Data Block>
<Table 56 - HDMI Audio Data Block>

아래 테이블은 상기 오디오 데이터 블록의 3-4바이트를 대체하는 블록 구성을 나타낸다.The table below shows a block configuration for replacing 3-4 bytes of the audio data block.

Figure pat00021
Figure pat00021

< Table 57 - Byte 3-4 of HDMI Audio Data Block>
<Table 57 - Byte 3-4 of HDMI Audio Data Block>

각 필드를 설명하면 다음과 같다.Each field is described as follows.

긴급 채널 필드 (Supports_MS_Emergency [1bit]: Supports_MS_Emergency=1이면, 싱크 장치는 긴급 경고 오디오 채널을 수신하고, 처리하는 것을 지원한다. Supports_MS_Emergency=0이면, 싱크 장치는 이러한 특징을 지원하지 않는다.If the emergency channel field (Supports_MS_Emergency [1 bit]: Supports_MS_Emergency = 1), the sink device supports reception and processing of the emergency alert audio channel. If Supports_MS_Emergency = 0, the sink device does not support this feature.

오디오 믹스 필드(Supports_MS_Mix) [1bit]: Supports_MS_Mix=1이면, 싱크 장치는 메인 오디오와 보조 오디오(supplementary audio)를 합성하는 것을 지원한다. Supports_MS_Mix=0이면 싱크 장치는 이러한 합성을 지원하지 않고, 믹스된 오디오를 재생하는 것만 지원한다. Audio Mix Field (Supports_MS_Mix) [1bit]: If Supports_MS_Mix = 1, the sink device supports synthesis of main audio and supplementary audio. If Supports_MS_Mix = 0, the sink device does not support this synthesis, but only supports playing back the mixed audio.

보조 오디오 지원 필드(Supports_MS_Supple) [1bit]: Supports_MS_Supple =1이면, 싱크 장치는 시각/청각 장애인을 위한 보조 오디오 트랙을 갖는 멀티 스트림 오디오를 지원한다. Supports_MS_Supple =0이면, 아무 것도 나타내지 않거나 싱크 장치가 시각/청각 장애인을 위한 보조 오디오 트랙을 지원하지 않음을 나타낸다. Auxiliary Audio Support Field (Supports_MS_Supple) [1bit]: If Supports_MS_Supple = 1, the sink device supports multi-stream audio with auxiliary audio tracks for the visually impaired. If Supports_MS_Supple = 0, it indicates nothing or indicates that the sink device does not support auxiliary audio tracks for the visually impaired.

언어 지원 필드(Supports_MS_Lang) [1bit]: Supports_MS_Lang=1이면, 싱크 장치는 여러 언어 오디오 스트림을 갖는 멀티 스트림 오디오를 지원한다. Supports_MS_Lang=0이면, 아무 것도 나타내지 않거나 싱크 장치가 여러 언어 오디오 스트림을 지원하지 않음을 나타낸다.If the language support field (Supports_MS_Lang) [1 bit]: Supports_MS_Lang = 1, the sink device supports multi-stream audio having multiple language audio streams. If Supports_MS_Lang = 0, it indicates nothing or indicates that the sink device does not support multiple language audio streams.

멀티뷰 오디오 지원 필드(Supports_MS_MultiView) [1bit]: Supports_MS_MultiView=1이면, 싱크 장치는 멀티뷰 비디오 스트리밍을 위한 멀티 스트림 오디오를 지원한다. Supports_MS_MultiView=0이면, 아무 것도 나타내지 않거나 싱크 장치가 멀티뷰 비디오 스트리밍을 위한 멀티 스트림 오디오를 지원하지 않음을 나타낸다. Multi-view audio support field (Supports_MS_MultiView) [1bit]: If Supports_MS_MultiView = 1, the sink device supports multi-stream audio for multi-view video streaming. If Supports_MS_MultiView = 0, it indicates nothing or indicates that the sink device does not support multi-stream audio for multi-view video streaming.

최대 스트림 카운트 필드(Max_Stream_Count-1) [2bits]: 싱크 장치가 핸들링할 수 있는 최대 오디오 스트림의 개수를 나타낸다. Max_Stream_Count-1값이 아래의 테이블에 도시된다. Maximum Stream Count Field (Max_Stream_Count-1) [2 bits]: This indicates the maximum number of audio streams that the sink device can handle. The Max_Stream_Count-1 value is shown in the table below.

오디오 디스크립터 개수 필드(NUM_HDMI_3D_AD) [3bits]: 3D 오디오 디스크립터의 개수를 나타낸다.Audio Descriptor Number Field (NUM_HDMI_3D_AD) [3bits]: Indicates the number of 3D audio descriptors.

Figure pat00022
Figure pat00022

< Table 58 - Max_Stream_Count-1 field>
<Table 58 - Max_Stream_Count-1 field>

도 13은, 본 발명의 또 다른 실시 예에 따른 데이터 송수신 시스템(1000-3)의 구성을 도시한 블록도이다.FIG. 13 is a block diagram showing a configuration of a data transmission / reception system 1000-3 according to another embodiment of the present invention.

도 13을 참조하면, 본 발명의 또 다른 실시 예에 따른 데이터 송수신 시스템(1000-3)은, 데이터 전송 장치(100-3)와, 데이터 수신 장치(200-3)를 포함한다.Referring to FIG. 13, a data transmission / reception system 1000-3 according to another embodiment of the present invention includes a data transmission apparatus 100-3 and a data reception apparatus 200-3.

데이터 전송 장치(100-3)는, 오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 생성하여 데이터 수신 장치(200-3)로 전송한다. The data transmission apparatus 100-3 generates display identification information including the feature information supported by the sink apparatus with respect to the audio data and transmits it to the data reception apparatus 200-3.

데이터 수신 장치(200-3)는, 상기 데이터 전송 장치(100-3)로부터 상기 디스플레이 식별 정보를 수신하여 분석한다. 이때, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드를 포함한다.The data receiving apparatus 200-3 receives and analyzes the display identification information from the data transmitting apparatus 100-3. At this time, the display identification information includes a main / auxiliary audio property field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.

이하에서는, 데이터 전송 장치(100-3)와 데이터 수신 장치(200-3)를 좀 더 상세하게 설명한다. Hereinafter, the data transmission apparatus 100-3 and the data reception apparatus 200-3 will be described in more detail.

도 14는 본 발명의 또 다른 실시 예에 따른 데이터 전송 장치(100-3)의 구성을 도시한 블록도이다.14 is a block diagram showing the configuration of a data transmission apparatus 100-3 according to another embodiment of the present invention.

도 14를 참조하면, 본 발명의 또 다른 실시 예에 따른 데이터 전송 장치(100-3)는, 생성부(130)와 전송부(120)를 포함한다. Referring to FIG. 14, a data transmission apparatus 100-3 according to another embodiment of the present invention includes a generation unit 130 and a transmission unit 120. FIG.

생성부(130)는, 오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 생성하는 구성이다. The generation unit 130 is a configuration for generating display identification information including the feature information supported by the sink device with respect to the audio data.

전송부(120)는, 데이터 수신 장치(200-3)에 상기 디스플레이 식별 정보를 전송한다. The transmitting unit 120 transmits the display identification information to the data receiving apparatus 200-3.

이때, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드를 포함한다. At this time, the display identification information includes a main / auxiliary audio property field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.

이때, 상기 메인/보조 오디오 특성 필드는, 상기 싱크 장치가 메인 오디오와 보조 오디오의 합성을 지원하는지 나타내는 오디오 믹스 필드(Audio Mix Field), 상기 싱크 장치가 보조 오디오를 지원하는지 나타내는 보조 오디오 지원 필드(Supplemental Audio Support Field), 상기 싱크 장치가 복수의 언어로 된 오디오 데이터를 지원하는지를 나타내는 언어 지원 필드(Language Support Field), 상기 싱크 장치가 멀티뷰 콘텐츠를 위한 멀티 스트림 오디오 데이터를 지원하는지를 나타내는 멀티뷰 오디오 지원 필드(Multiview Audio Support Field), 상기 싱크 장치가 핸들링할 수 있는 최대 오디오 스트림의 개수를 나타내는 최대 스트림 카운트 필드(Maximum Stream Count Field), 및 3D 오디오 디스크립터의 개수를 나타내는 오디오 디스크립터 개수 필드(Number Of Audio Descriptor Field) 중 적어도 하나를 포함할 수 있다. At this time, the main / auxiliary audio property field includes an audio mix field indicating whether the sink device supports synthesis of main audio and auxiliary audio, an auxiliary audio support field indicating whether the sink device supports auxiliary audio Supplemental Audio Support Field), a language support field indicating whether the sink device supports audio data in a plurality of languages, a multi-view audio field indicating whether the sink device supports multi-stream audio data for multi- A maximum stream count field indicating a maximum number of audio streams that can be handled by the sink device, and an audio descriptor number field indicating a number of 3D audio descriptors Audio Descriptor Field) It can be included.

또한, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 긴급 상황 방송 수신 및 처리를 지원하는지를 나타내는 긴급 채널 필드(Emergency Channel Field)를 더 포함할 수 있다. In addition, the display identification information may further include an emergency channel field indicating whether the sink device supports reception and processing of an emergency situation broadcast.

도 15는 본 발명의 또 다른 실시 예에 따른 데이터 수신 장치(200-3)의 구성을 도시한 블록도이다.15 is a block diagram showing the configuration of a data receiving apparatus 200-3 according to another embodiment of the present invention.

도 15를 참조하면, 본 발명의 또 다른 실시 예에 따른 데이터 수신 장치(200-3)는, 수신부(210)와, 분석부(230)를 포함한다. Referring to FIG. 15, a data receiving apparatus 200-3 according to another embodiment of the present invention includes a receiving unit 210 and an analyzing unit 230. FIG.

수신부(210)는, 데이터 전송 장치(100-3)로부터, 오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 수신하는 구성이다. The receiving unit 210 is a configuration for receiving, from the data transmission apparatus 100-3, display identification information including characteristic information supported by the sink apparatus with respect to audio data.

분석부(230)는, 상기 수신된 디스플레이 식별 정보를 분석한다. The analyzer 230 analyzes the received display identification information.

이때, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드를 포함한다. At this time, the display identification information includes a main / auxiliary audio property field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.

또한, 상기 메인/보조 오디오 특성 필드는, 상기 싱크 장치가 메인 오디오와 보조 오디오의 합성을 지원하는지 나타내는 오디오 믹스 필드(Audio Mix Field), 상기 싱크 장치가 보조 오디오를 지원하는지 나타내는 보조 오디오 지원 필드(Supplemental Audio Support Field), 상기 싱크 장치가 복수의 언어로 된 오디오 데이터를 지원하는지를 나타내는 언어 지원 필드(Language Support Field), 상기 싱크 장치가 멀티뷰 콘텐츠를 위한 멀티 스트림 오디오 데이터를 지원하는지를 나타내는 멀티뷰 오디오 지원 필드(Multiview Audio Support Field), 상기 싱크 장치가 핸들링할 수 있는 최대 오디오 스트림의 개수를 나타내는 최대 스트림 카운트 필드(Maximum Stream Count Field), 및 3D 오디오 디스크립터의 개수를 나타내는 오디오 디스크립터 개수 필드(Number Of Audio Descriptor Field) 중 적어도 하나를 포함할 수 있다. The main / auxiliary audio property field may include an audio mix field indicating whether the sink device supports synthesis of main audio and auxiliary audio, an auxiliary audio support field indicating whether the sink device supports auxiliary audio, Supplemental Audio Support Field), a language support field indicating whether the sink device supports audio data in a plurality of languages, a multi-view audio field indicating whether the sink device supports multi-stream audio data for multi- A maximum stream count field indicating a maximum number of audio streams that can be handled by the sink device, and an audio descriptor number field indicating a number of 3D audio descriptors Audio Descriptor Field) It can be included.

또한, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 긴급 상황 방송 수신 및 처리를 지원하는지를 나타내는 긴급 채널 필드(Emergency Channel Field)를 더 포함할 수 있다.
In addition, the display identification information may further include an emergency channel field indicating whether the sink device supports reception and processing of an emergency situation broadcast.

한편, 본 발명의 다양한 실시 예에 따른 유선 인터페이스는 쿼드 뷰 콘텐츠 전송을 지원할 수 있다. 쿼드 뷰 전송을 위해 HDMI 유선 인터페이스 규격의 3D 비디오 포맷 규격을 활용할 수 있다.Meanwhile, a wired interface according to various embodiments of the present invention may support quad view content transmission. You can take advantage of the 3D video format specification of the HDMI wired interface specification for quad view transmission.

도 16a 내지 16c는 쿼드 뷰 비디오 콘텐츠를 3D 인터레이스 포맷으로 전송하는 경우 다양한 데이터 전송 포맷을 도시한 도면이다.16A to 16C are diagrams illustrating various data transmission formats when transmitting quad view video contents in 3D interlaced format.

또한, 이 경우 밴더 특정 인포프레임(Vendor-Specific Infoframe)과 밴더 특정 데이터 블록(Vendor-specific Data Block)을 수정할 수 있다. 구체적으로 종래의 3D 듀얼뷰를 정의하는 필드를 리저브 영역까지 확장한다. In this case, a vendor-specific infoframe and a vendor-specific data block can be modified. Specifically, the field defining the conventional 3D dual view is extended to the reserved area.

Figure pat00023
Figure pat00023

< Table 59 ? VSIF(Packet Body)><Table 59? VSIF (Packet Body)>

Figure pat00024
Figure pat00024

< Table 60 ? NUM_VIEWS(Rsvd + 3D_DualView)><Table 60? NUM_VIEWS (Rsvd + 3D_DualView)>

Figure pat00025
Figure pat00025

< Table 61 ? VSDB>
<Table 61? VSDB>

이하에서는 본 발명의 다양한 실시 예에 따른, 데이터 송수신 방법을 설명한다. Hereinafter, a data transmission / reception method according to various embodiments of the present invention will be described.

도 17은 본 발명의 일 실시 예에 따른 데이터 전송 방법의 흐름도이다.17 is a flowchart of a data transmission method according to an embodiment of the present invention.

도 17을 참조하면, 본 발명의 일 실시 예에 따른 데이터 전송 방법은, 제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 생성하는 단계(S1710)와, 상기 생성된 패킷을 데이터 수신 장치로 전송하는 단계(S1720)를 포함하고, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함한다. Referring to FIG. 17, a data transmission method according to an embodiment of the present invention includes generating a packet including a first subpacket and a second subpacket (S1710), transmitting the generated packet to a data receiving apparatus (S1720), wherein the first subpacket and the second subpacket comprise different audio data for the first content.

이때, 상기 제1 서브 패킷은 비장애인을 위한 오디오 데이터를 포함하고, 상기 제2 서브 패킷은 시각 장애인을 위한 오디오 데이터를 포함할 수 있다.At this time, the first subpacket includes audio data for a non-disabled person, and the second subpacket may include audio data for a blind person.

또한, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 상이한 언어로 된 오디오 데이터를 포함할 수 있다.In addition, the first subpacket and the second subpacket may include audio data in a different language.

또한, 상기 제1 서브 패킷은 상기 제2 서브 패킷에 대한 오디오 디스크립션에 해당하는 오디오 데이터를 포함할 수 있다.In addition, the first subpacket may include audio data corresponding to the audio description of the second subpacket.

또한, 상기 패킷은, 상기 제1 콘텐츠와 상이한 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제3 서브 패킷을 더 포함할 수 있다.In addition, the packet may further include a third subpacket including audio data for a second content different from the first content.

이때, 상기 제1 서브 패킷이 포함하는 오디오 데이터는 상기 제1 콘텐츠에 대한 전용 오디오 데이터이고, 상기 제3 서브 패킷이 포함하는 오디오 데이터는 상기 제2 콘텐츠에 대한 전용 오디오 데이터이며, 상기 제2 서브 패킷이 포함하는 오디오 데이터는, 상기 제1 콘텐츠 및 상기 제2 콘텐츠에 대한 공통 오디오 데이터일 수 있다.At this time, the audio data included in the first subpacket is dedicated audio data for the first content, the audio data included in the third subpacket is dedicated audio data for the second content, The audio data included in the packet may be common audio data for the first content and the second content.

또한, 상기 패킷은, 상기 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제4 서브 패킷을 더 포함하고, 상기 제3 서브 패킷과 상기 제4 서브 패킷은 상이한 오디오 데이터를 포함할 수 있다.The packet may further include a fourth subpacket including audio data for the second content, and the third subpacket and the fourth subpacket may include different audio data.

도 18은 본 발명의 일 실시 예에 따른 데이터 수신 방법의 흐름도이다.18 is a flowchart of a data receiving method according to an embodiment of the present invention.

도 18을 참조하면, 본 발명의 일 다른 실시 예에 따른, 데이터 수신 방법은, 데이터 전송 장치로부터 제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 수신하는 단계(S1810)와, 상기 수신된 제1 서브 패킷 및 상기 제2 서브 패킷을 파싱하는 단계(S1820)를 포함하고, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함한다.18, a method of receiving data according to another embodiment of the present invention includes receiving (S1810) a packet including a first subpacket and a second subpacket from a data transmission apparatus, Parsing the first subpacket and the second subpacket (S1820), wherein the first subpacket and the second subpacket comprise different audio data for the first content.

또한, 상기 제1 서브 패킷은 비장애인을 위한 오디오 데이터를 포함하고, 상기 제2 서브 패킷은 시각 장애인을 위한 오디오 데이터를 포함할 수 있다.In addition, the first subpacket may include audio data for a non-disabled person, and the second subpacket may include audio data for a blind person.

또한, 상기 제1 서브 패킷 및 상기 제2 서브 패킷은 상이한 언어로 된 오디오 데이터를 포함할 수 있다.In addition, the first subpacket and the second subpacket may include audio data in a different language.

이때, 상기 제1 서브 패킷은 상기 제2 서브 패킷에 대한 오디오 디스크립션에 해당하는 오디오 데이터를 포함할 수 있다.Here, the first subpacket may include audio data corresponding to the audio description of the second subpacket.

또한, 상기 패킷은, 상기 제1 콘텐츠와 상이한 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제3 서브 패킷을 더 포함할 수 있다.In addition, the packet may further include a third subpacket including audio data for a second content different from the first content.

이때, 상기 제1 서브 패킷이 포함하는 오디오 데이터는 상기 제1 콘텐츠에 대한 전용 오디오 데이터이고, 상기 제3 서브 패킷이 포함하는 오디오 데이터는 상기 제2 콘텐츠에 대한 전용 오디오 데이터이며, 상기 제2 서브 패킷이 포함하는 오디오 데이터는, 상기 제1 콘텐츠 및 상기 제2 콘텐츠에 대한 공통 오디오 데이터일 수 있다.At this time, the audio data included in the first subpacket is dedicated audio data for the first content, the audio data included in the third subpacket is dedicated audio data for the second content, The audio data included in the packet may be common audio data for the first content and the second content.

또한, 상기 패킷은, 상기 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제4 서브 패킷을 더 포함하고, 상기 제3 서브 패킷과 상기 제4 서브 패킷은 상이한 오디오 데이터를 포함할 수 있다.The packet may further include a fourth subpacket including audio data for the second content, and the third subpacket and the fourth subpacket may include different audio data.

도 19는 본 발명의 다른 실시 예에 따른 데이터 전송 방법의 흐름도이다.19 is a flowchart of a data transmission method according to another embodiment of the present invention.

도 19를 참조하면, 본 발명의 다른 실시 예에 따른, 오디오 메타 데이터 패킷을 생성하는 단계(S1910)와, 상기 생성된 오디오 메타 데이터 패킷을 데이터 수신 장치로 전송하는 단계(S1920)를 포함하고, 상기 생성된 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함한다.Referring to FIG. 19, an audio metadata packet is generated (S1910) and a generated audio metadata packet is transmitted to a data receiving apparatus (S1920) according to another embodiment of the present invention. The header of the generated audio metadata packet includes a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.

또한, 상기 생성된 오디오 메타 데이터 패킷의 헤더는, 전송되는 오디오 스트림의 개수 정보를 나타내는 오디오 스트림 개수 필드(Number Of Audio Stream Field)를 더 포함할 수 있다.In addition, the header of the generated audio metadata packet may further include a number of audio stream field indicating the number of audio streams to be transmitted.

또한, 상기 생성된 오디오 메타 데이터 패킷의 헤더는, 전송되는 상이한 콘텐츠의 개수 정보를 나타내는 뷰 개수 필드(Number Of Views Field)를 더 포함할 수 있다.In addition, the header of the generated audio metadata packet may further include a number of view field indicating the number of pieces of different contents to be transmitted.

또한, 상기 생성된 오디오 메타 데이터 패킷의 페이로드(payload)는, 멀티 스트림 오디오 샘플 패킷(Multi-stream Audio Sample Packet) 또는 멀티 스트림 원비트 오디오 샘플 패킷(Multi-stream One Bit Audio Sample Packet)의 서브패킷에 대한 메타 데이터를 나타내는 오디오 메타 데이터 디스크립터 필드를 포함할 수 있다.In addition, the payload of the generated audio metadata packet may be divided into a multi-stream Audio Sample Packet or a Multi-stream One Bit Audio Sample Packet And an audio metadata descriptor field indicating metadata about the packet.

또한, 상기 오디오 메타 데이터 디스크립터 필드는, 긴급 상황 방송이 있는지를 나타내는 긴급 채널 필드(Emergency Channel Field), 멀티 뷰에서 좌안 또는 우안 영상에 대응되는 오디오 데이터를 포함하는지를 나타내는 멀티뷰 필드(Multivew Field), 오디오 데이터에 대한 언어의 식별 유무를 나타내는 언어 코드 유효 필드(Language Code Valid Field), 보조 오디오 데이터 유무를 나타내는 보조 오디오 유효 필드(Supplemental Audio Valid Field), 메인 오디오 데이터와 상기 보조 오디오 데이터의 프리 믹스 여부를 나타내는 프리믹스 보조 오디오 필드(pre-mixed Supplemental Audio Field), 상기 보조 오디오 데이터의 타입을 나타내는 보조 오디오 타입 필드(Supplemental Audio Type Field), 및 오디오 데이터에 대한 언어 코드를 나타내는 언어 코드 필드(Language Code Field) 중 적어도 하나를 포함할 수 있다.In addition, the audio metadata descriptor field includes an emergency channel field indicating whether there is an emergency broadcast, a multi-view field indicating whether audio data corresponding to the left or right eye image is included in the multi-view, A language code valid field indicating whether or not the language is identified with respect to the audio data, a supplemental audio valid field indicating the presence or absence of the auxiliary audio data, whether or not the main audio data and the auxiliary audio data are premixed A supplemental audio type field indicating a type of the auxiliary audio data and a language code field indicating a language code for the audio data, ) &Lt; / RTI &gt; have.

도 20은 본 발명의 다른 실시 예에 따른 데이터 수신 방법의 흐름도이다.20 is a flowchart of a data receiving method according to another embodiment of the present invention.

도 20을 참조하면, 본 발명의 다른 실시 예에 따른, 데이터 수신 방법은, 데이터 전송 장치로부터 오디오 메타 데이터 패킷을 수신하는 단계(S2010)와, 상기 수신된 오디오 메타 데이터 패킷을 파싱하는 단계(S2020)를 포함하고, 상기 수신된 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함한다.Referring to FIG. 20, a data reception method according to another embodiment of the present invention includes receiving an audio metadata packet from a data transmission apparatus (S2010), parsing the received audio metadata packet (S2020 The header of the received audio metadata packet includes a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.

또한, 상기 오디오 메타 데이터 패킷의 헤더는, 수신되는 오디오 스트림의 개수 정보를 나타내는 오디오 스트림 개수 필드(Number Of Audio Stream Field)를 더 포함할 수 있다. The header of the audio metadata packet may further include a number of audio stream field indicating the number of audio streams to be received.

또한, 상기 오디오 메타 데이터 패킷의 헤더는, 수신되는 상이한 콘텐츠의 개수 정보를 나타내는 뷰 개수 필드(Number Of Views Field)를 더 포함할 수 있다.In addition, the header of the audio metadata packet may further include a number of view field indicating the number of pieces of different contents to be received.

또한, 상기 오디오 메타 데이터 패킷의 페이로드(payload)는, 멀티 스트림 오디오 샘플 패킷(Multi-stream Audio Sample Packet) 또는 멀티 스트림 원비트 오디오 샘플 패킷(Multi-stream One Bit Audio Sample Packet)의 서브패킷에 대한 메타 데이터를 나타내는 오디오 메타 데이터 디스크립터 필드를 포함할 수 있다.The payload of the audio metadata packet may be a sub-packet of a multi-stream audio sample packet or a multi-stream one-bit audio sample packet. Lt; RTI ID = 0.0 &gt; metadata metadata descriptor field. &Lt; / RTI &gt;

또한, 상기 오디오 메타 데이터 디스크립터 필드는, 긴급 상황 방송이 있는지를 나타내는 긴급 채널 필드(Emergency Channel Field), 멀티 뷰에서 좌안 또는 우안 영상에 대응되는 오디오 데이터를 포함하는지를 나타내는 멀티뷰 필드(Multivew Field), 오디오 데이터에 대한 언어의 식별 유무를 나타내는 언어 코드 유효 필드(Language Code Valid Field), 보조 오디오 데이터 유무를 나타내는 보조 오디오 유효 필드(Supplemental Audio Valid Field), 메인 오디오 데이터와 상기 보조 오디오 데이터의 프리 믹스 여부를 나타내는 프리믹스 보조 오디오 필드(pre-mixed Supplemental Audio Field), 상기 보조 오디오 데이터의 타입을 나타내는 보조 오디오 타입 필드(Supplemental Audio Type Field), 및 오디오 데이터에 대한 언어 코드를 나타내는 언어 코드 필드(Language Code Field) 중 적어도 하나를 포함할 수 있다.In addition, the audio metadata descriptor field includes an emergency channel field indicating whether there is an emergency broadcast, a multi-view field indicating whether audio data corresponding to the left or right eye image is included in the multi-view, A language code valid field indicating whether or not the language is identified with respect to the audio data, a supplemental audio valid field indicating the presence or absence of the auxiliary audio data, whether or not the main audio data and the auxiliary audio data are premixed A supplemental audio type field indicating a type of the auxiliary audio data and a language code field indicating a language code for the audio data, ) &Lt; / RTI &gt; have.

도 21은 본 발명의 또 다른 실시 예에 따른 데이터 전송 방법의 흐름도이다.21 is a flowchart of a data transmission method according to another embodiment of the present invention.

도 21을 참조하면, 본 발명의 또 다른 실시 예에 따른, 데이터 전송 방법은, 오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 생성하는 단계(S2110)와, 데이터 수신 장치에 상기 디스플레이 식별 정보를 전송하는 단계(S2120)를 포함하고, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드를 포함한다.Referring to FIG. 21, a data transmission method according to another embodiment of the present invention includes generating (S2110) display identification information including feature information supported by a sink device with respect to audio data, And transmitting the display identification information to the device (S2120), wherein the display identification information includes a main / auxiliary audio property field indicating information on characteristics of main audio and auxiliary audio supported by the sink device .

또한, 상기 메인/보조 오디오 특성 필드는, 상기 싱크 장치가 메인 오디오와 보조 오디오의 합성을 지원하는지 나타내는 오디오 믹스 필드(Audio Mix Field), 상기 싱크 장치가 보조 오디오를 지원하는지 나타내는 보조 오디오 지원 필드(Supplemental Audio Support Field), 상기 싱크 장치가 복수의 언어로 된 오디오 데이터를 지원하는지를 나타내는 언어 지원 필드(Language Support Field), 상기 싱크 장치가 멀티뷰 콘텐츠를 위한 멀티 스트림 오디오 데이터를 지원하는지를 나타내는 멀티뷰 오디오 지원 필드(Multiview Audio Support Field), 상기 싱크 장치가 핸들링할 수 있는 최대 오디오 스트림의 개수를 나타내는 최대 스트림 카운트 필드(Maximum Stream Count Field), 및 3D 오디오 디스크립터의 개수를 나타내는 오디오 디스크립터 개수 필드(Number Of Audio Descriptor Field) 중 적어도 하나를 포함할 수 있다.The main / auxiliary audio property field may include an audio mix field indicating whether the sink device supports synthesis of main audio and auxiliary audio, an auxiliary audio support field indicating whether the sink device supports auxiliary audio, Supplemental Audio Support Field), a language support field indicating whether the sink device supports audio data in a plurality of languages, a multi-view audio field indicating whether the sink device supports multi-stream audio data for multi- A maximum stream count field indicating a maximum number of audio streams that can be handled by the sink device, and an audio descriptor number field indicating a number of 3D audio descriptors Audio Descriptor Field) It can be included.

또한, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 긴급 상황 방송 수신 및 처리를 지원하는지를 나타내는 긴급 채널 필드(Emergency Channel Field)를 더 포함할 수 있다.In addition, the display identification information may further include an emergency channel field indicating whether the sink device supports reception and processing of an emergency situation broadcast.

도 22는 본 발명의 또 다른 실시 예에 따른 데이터 수신 방법의 흐름도이다.22 is a flowchart of a data receiving method according to another embodiment of the present invention.

도 22를 참조하면, 본 발명의 또 다른 실시 예에 따른 데이터 수신 방법은, 데이터 전송 장치로부터, 오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 수신하는 단계(S2210)와, 상기 수신된 디스플레이 식별 정보를 분석하는 단계(S2220)를 포함하고, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드를 포함한다.22, a method of receiving data according to another embodiment of the present invention includes receiving (S2210) display identification information including characteristic information supported by a sink device with respect to audio data from a data transmission device, And analyzing the received display identification information (S2220), wherein the display identification information includes a main / auxiliary audio property field indicating information about characteristics of main audio and auxiliary audio supported by the sink device .

또한, 상기 메인/보조 오디오 특성 필드는, 상기 싱크 장치가 메인 오디오와 보조 오디오의 합성을 지원하는지 나타내는 오디오 믹스 필드(Audio Mix Field), 상기 싱크 장치가 보조 오디오를 지원하는지 나타내는 보조 오디오 지원 필드(Supplemental Audio Support Field), 상기 싱크 장치가 복수의 언어로 된 오디오 데이터를 지원하는지를 나타내는 언어 지원 필드(Language Support Field), 상기 싱크 장치가 멀티뷰 콘텐츠를 위한 멀티 스트림 오디오 데이터를 지원하는지를 나타내는 멀티뷰 오디오 지원 필드(Multiview Audio Support Field), 상기 싱크 장치가 핸들링할 수 있는 최대 오디오 스트림의 개수를 나타내는 최대 스트림 카운트 필드(Maximum Stream Count Field), 및 3D 오디오 디스크립터의 개수를 나타내는 오디오 디스크립터 개수 필드(Number Of Audio Descriptor Field) 중 적어도 하나를 포함할 수 있다.The main / auxiliary audio property field may include an audio mix field indicating whether the sink device supports synthesis of main audio and auxiliary audio, an auxiliary audio support field indicating whether the sink device supports auxiliary audio, Supplemental Audio Support Field), a language support field indicating whether the sink device supports audio data in a plurality of languages, a multi-view audio field indicating whether the sink device supports multi-stream audio data for multi- A maximum stream count field indicating a maximum number of audio streams that can be handled by the sink device, and an audio descriptor number field indicating a number of 3D audio descriptors Audio Descriptor Field) It can be included.

또한, 상기 디스플레이 식별 정보는, 상기 싱크 장치가 긴급 상황 방송 수신 및 처리를 지원하는지를 나타내는 긴급 채널 필드(Emergency Channel Field)를 더 포함할 수 있다.In addition, the display identification information may further include an emergency channel field indicating whether the sink device supports reception and processing of an emergency situation broadcast.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

1000-1, 1000-2, 1000-3 : 데이터 송수신 시스템
100-1, 100-2, 100-3 : 데이터 전송 장치
200-1, 200-2, 200-3 : 데이터 수신 장치
110 : 패킷 생성부 120 : 전송부
130 : 생성부
210 : 수신부 220 : 파싱부
230 : 분석부
1000-1, 1000-2, and 1000-3: data transmission / reception system
100-1, 100-2, and 100-3: a data transmission device
200-1, 200-2, 200-3: Data receiving device
110: packet generation unit 120:
130:
210: Receiving unit 220:
230:

Claims (39)

데이터 전송 장치에 있어서,
제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 생성하는 패킷 생성부; 및
상기 생성된 패킷을 데이터 수신 장치로 전송하는 전송부;를 포함하고,
상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함하는 데이터 전송장치.
A data transfer apparatus comprising:
A packet generator for generating a packet including a first subpacket and a second subpacket; And
And a transmitting unit for transmitting the generated packet to a data receiving apparatus,
Wherein the first subpacket and the second subpacket comprise different audio data for the first content.
제1항에 있어서,
상기 제1 서브 패킷은 비장애인을 위한 오디오 데이터를 포함하고,
상기 제2 서브 패킷은 시각 장애인을 위한 오디오 데이터를 포함하는 것을 특징으로 하는 데이터 전송 장치.
The method according to claim 1,
The first subpacket includes audio data for non-disabled persons,
And the second subpacket includes audio data for a blind person.
제1항에 있어서,
상기 제1 서브 패킷 및 상기 제2 서브 패킷은 상이한 언어로 된 오디오 데이터를 포함하는 것을 특징으로 하는 데이터 전송 장치.
The method according to claim 1,
Wherein the first subpacket and the second subpacket comprise audio data in different languages.
제1항에 있어서,
상기 제1 서브 패킷은 상기 제2 서브 패킷에 대한 오디오 디스크립션에 해당하는 오디오 데이터를 포함하는 것을 특징으로 하는 데이터 전송 장치.
The method according to claim 1,
Wherein the first subpacket includes audio data corresponding to an audio description of the second subpacket.
제1항에 있어서,
상기 패킷은, 상기 제1 콘텐츠와 상이한 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제3 서브 패킷을 더 포함하는 것을 특징으로 하는 데이터 전송 장치.
The method according to claim 1,
Wherein the packet further comprises a third subpacket including audio data for a second content different from the first content.
제5항에 있어서,
상기 제1 서브 패킷이 포함하는 오디오 데이터는 상기 제1 콘텐츠에 대한 전용 오디오 데이터이고,
상기 제3 서브 패킷이 포함하는 오디오 데이터는 상기 제2 콘텐츠에 대한 전용 오디오 데이터이며,
상기 제2 서브 패킷이 포함하는 오디오 데이터는, 상기 제1 콘텐츠 및 상기 제2 콘텐츠에 대한 공통 오디오 데이터인 것을 특징으로 하는 데이터 전송 장치.
6. The method of claim 5,
The audio data included in the first subpacket is dedicated audio data for the first content,
The audio data included in the third subpacket is dedicated audio data for the second content,
Wherein the audio data included in the second subpacket is common audio data for the first content and the second content.
제5항에 있어서,
상기 패킷은, 상기 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제4 서브 패킷을 더 포함하고,
상기 제3 서브 패킷과 상기 제4 서브 패킷은 상이한 오디오 데이터를 포함하는, 데이터 전송 장치.
6. The method of claim 5,
Wherein the packet further comprises a fourth subpacket including audio data for the second content,
Wherein the third subpacket and the fourth subpacket comprise different audio data.
데이터 수신 장치에 있어서,
데이터 전송 장치로부터 제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 수신하는 수신부; 및
상기 수신된 제1 서브 패킷 및 상기 제2 서브 패킷을 파싱하는 파싱부;를 포함하고,
상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함하는, 데이터 수신 장치.
In the data receiving apparatus,
A receiving unit for receiving a packet including a first subpacket and a second subpacket from a data transmission apparatus; And
And a parsing unit parsing the received first subpacket and the second subpacket,
Wherein the first subpacket and the second subpacket comprise different audio data for the first content.
제8항에 있어서,
상기 제1 서브 패킷은 비장애인을 위한 오디오 데이터를 포함하고,
상기 제2 서브 패킷은 시각 장애인을 위한 오디오 데이터를 포함하는 것을 특징으로 하는 데이터 수신 장치.
9. The method of claim 8,
The first subpacket includes audio data for non-disabled persons,
And the second subpacket includes audio data for a blind person.
제8항에 있어서,
상기 제1 서브 패킷 및 상기 제2 서브 패킷은 상이한 언어로 된 오디오 데이터를 포함하는 것을 특징으로 하는 데이터 수신 장치.
9. The method of claim 8,
Wherein the first subpacket and the second subpacket comprise audio data in different languages.
제8항에 있어서,
상기 제1 서브 패킷은 상기 제2 서브 패킷에 대한 오디오 디스크립션에 해당하는 오디오 데이터를 포함하는 것을 특징으로 하는 데이터 수신 장치.
9. The method of claim 8,
Wherein the first subpacket includes audio data corresponding to an audio description of the second subpacket.
제8항에 있어서,
상기 패킷은, 상기 제1 콘텐츠와 상이한 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제3 서브 패킷을 더 포함하는 것을 특징으로 하는 데이터 수신 장치.
9. The method of claim 8,
Wherein the packet further comprises a third subpacket including audio data for a second content different from the first content.
제12항에 있어서,
상기 제1 서브 패킷이 포함하는 오디오 데이터는 상기 제1 콘텐츠에 대한 전용 오디오 데이터이고,
상기 제3 서브 패킷이 포함하는 오디오 데이터는 상기 제2 콘텐츠에 대한 전용 오디오 데이터이며,
상기 제2 서브 패킷이 포함하는 오디오 데이터는, 상기 제1 콘텐츠 및 상기 제2 콘텐츠에 대한 공통 오디오 데이터인 것을 특징으로 하는 데이터 수신 장치.
13. The method of claim 12,
The audio data included in the first subpacket is dedicated audio data for the first content,
The audio data included in the third subpacket is dedicated audio data for the second content,
Wherein the audio data included in the second subpacket is common audio data for the first content and the second content.
제12항에 있어서,
상기 패킷은, 상기 제2 콘텐츠에 대한 오디오 데이터를 포함하는 제4 서브 패킷을 더 포함하고,
상기 제3 서브 패킷과 상기 제4 서브 패킷은 상이한 오디오 데이터를 포함하는, 데이터 수신 장치.
13. The method of claim 12,
Wherein the packet further comprises a fourth subpacket including audio data for the second content,
And wherein the third subpacket and the fourth subpacket comprise different audio data.
데이터 송수신 시스템에 있어서,
제1 서브 패킷 및 제2 서브 패킷을 포함하는 패킷을 생성하여 데이터 수신 장치로 전송하는 데이터 전송 장치; 및
상기 데이터 전송 장치로부터 상기 패킷을 수신하는 데이터 수신 장치;를 포함하고,
상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함하는 데이터 송수신 시스템.
In a data transmission / reception system,
A data transmission apparatus for generating a packet including a first subpacket and a second subpacket and transmitting the generated packet to a data receiving apparatus; And
And a data receiving device for receiving the packet from the data transmission device,
Wherein the first subpacket and the second subpacket comprise different audio data for the first content.
데이터 전송 장치에 있어서,
오디오 메타 데이터 패킷을 생성하는 패킷 생성부; 및
상기 생성된 오디오 메타 데이터 패킷을 데이터 수신 장치로 전송하는 전송부;를 포함하고,
상기 생성된 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함하는, 데이터 전송 장치.
A data transfer apparatus comprising:
A packet generator for generating an audio metadata packet; And
And a transmitting unit for transmitting the generated audio metadata packet to a data receiving apparatus,
Wherein a header of the generated audio metadata packet includes a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.
제16항에 있어서,
상기 생성된 오디오 메타 데이터 패킷의 헤더는, 전송되는 오디오 스트림의 개수 정보를 나타내는 오디오 스트림 개수 필드(Number Of Audio Stream Field)를 더 포함하는 것을 특징으로 하는 데이터 전송 장치.
17. The method of claim 16,
Wherein the header of the generated audio metadata packet further comprises a number of audio stream field indicating the number of audio streams to be transmitted.
제16항에 있어서,
상기 생성된 오디오 메타 데이터 패킷의 헤더는,
전송되는 상이한 콘텐츠의 개수 정보를 나타내는 뷰 개수 필드(Number Of Views Field)를 더 포함하는 것을 특징으로 하는 데이터 전송 장치.
17. The method of claim 16,
The header of the generated audio metadata packet may include:
Further comprising a number of view field indicating a number of pieces of different contents to be transmitted.
제16항에 있어서,
상기 생성된 오디오 메타 데이터 패킷의 페이로드(payload)는,
멀티 스트림 오디오 샘플 패킷(Multi-stream Audio Sample Packet) 또는 멀티 스트림 원비트 오디오 샘플 패킷(Multi-stream One Bit Audio Sample Packet)의 서브패킷에 대한 메타 데이터를 나타내는 오디오 메타 데이터 디스크립터 필드를 포함하는 것을 특징으로 하는 데이터 전송 장치.
17. The method of claim 16,
Wherein the payload of the generated audio metadata packet includes:
And an audio metadata descriptor field indicating metadata about a subpacket of a multi-stream audio sample packet or a multi-stream one-bit audio sample packet. .
제19항에 있어서,
상기 오디오 메타 데이터 디스크립터 필드는,
긴급 상황 방송이 있는지를 나타내는 긴급 채널 필드(Emergency Channel Field), 멀티 뷰에서 좌안 또는 우안 영상에 대응되는 오디오 데이터를 포함하는지를 나타내는 멀티뷰 필드(Multivew Field), 오디오 데이터에 대한 언어의 식별 유무를 나타내는 언어 코드 유효 필드(Language Code Valid Field), 보조 오디오 데이터 유무를 나타내는 보조 오디오 유효 필드(Supplemental Audio Valid Field), 메인 오디오 데이터와 상기 보조 오디오 데이터의 프리 믹스 여부를 나타내는 프리믹스 보조 오디오 필드(pre-mixed Supplemental Audio Field), 상기 보조 오디오 데이터의 타입을 나타내는 보조 오디오 타입 필드(Supplemental Audio Type Field), 및 오디오 데이터에 대한 언어 코드를 나타내는 언어 코드 필드(Language Code Field) 중 적어도 하나를 포함하는 것을 특징으로 하는 데이터 전송 장치.
20. The method of claim 19,
Wherein the audio metadata descriptor field comprises:
An emergency channel field indicating whether there is an emergency broadcast, a multi-view field indicating whether audio data corresponding to the left eye or right eye image is included in the multi-view, A language code valid field, a supplemental audio valid field indicating whether auxiliary audio data is present, a pre-mixed audio field indicating whether the main audio data is pre-mixed with the auxiliary audio data, A Supplemental Audio Type Field indicating a type of the auxiliary audio data, and a Language Code Field indicating a language code for the audio data. Lt; / RTI &gt;
데이터 수신 장치에 있어서,
데이터 전송 장치로부터 오디오 메타 데이터 패킷을 수신하는 수신부; 및
상기 수신된 오디오 메타 데이터 패킷을 파싱하는 파싱부;를 포함하고,
상기 수신된 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함하는, 데이터 수신 장치.
In the data receiving apparatus,
A receiving unit for receiving an audio metadata packet from a data transmission apparatus; And
And a parser parsing the received audio metadata packet,
Wherein a header of the received audio metadata packet includes a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.
제21항에 있어서,
상기 오디오 메타 데이터 패킷의 헤더는, 수신되는 오디오 스트림의 개수 정보를 나타내는 오디오 스트림 개수 필드(Number Of Audio Stream Field)를 더 포함하는 것을 특징으로 하는 데이터 수신 장치.
22. The method of claim 21,
Wherein the header of the audio metadata packet further comprises a number of audio stream field indicating the number of audio streams to be received.
제21항에 있어서,
상기 오디오 메타 데이터 패킷의 헤더는,
수신되는 상이한 콘텐츠의 개수 정보를 나타내는 뷰 개수 필드(Number Of Views Field)를 더 포함하는 것을 특징으로 하는 데이터 수신 장치.
22. The method of claim 21,
Wherein the header of the audio metadata packet includes:
Further comprising a number of view field for indicating the number of different pieces of content to be received.
제21항에 있어서,
상기 오디오 메타 데이터 패킷의 페이로드(payload)는,
멀티 스트림 오디오 샘플 패킷(Multi-stream Audio Sample Packet) 또는 멀티 스트림 원비트 오디오 샘플 패킷(Multi-stream One Bit Audio Sample Packet)의 서브패킷에 대한 메타 데이터를 나타내는 오디오 메타 데이터 디스크립터 필드를 포함하는 것을 특징으로 하는 데이터 수신 장치.
22. The method of claim 21,
Wherein the payload of the audio metadata packet comprises:
And an audio metadata descriptor field indicating metadata about a subpacket of a multi-stream audio sample packet or a multi-stream one-bit audio sample packet. .
제24항에 있어서,
상기 오디오 메타 데이터 디스크립터 필드는,
긴급 상황 방송이 있는지를 나타내는 긴급 채널 필드(Emergency Channel Field), 멀티 뷰에서 좌안 또는 우안 영상에 대응되는 오디오 데이터를 포함하는지를 나타내는 멀티뷰 필드(Multivew Field), 오디오 데이터에 대한 언어의 식별 유무를 나타내는 언어 코드 유효 필드(Language Code Valid Field), 보조 오디오 데이터 유무를 나타내는 보조 오디오 유효 필드(Supplemental Audio Valid Field), 메인 오디오 데이터와 상기 보조 오디오 데이터의 프리 믹스 여부를 나타내는 프리믹스 보조 오디오 필드(pre-mixed Supplemental Audio Field), 상기 보조 오디오 데이터의 타입을 나타내는 보조 오디오 타입 필드(Supplemental Audio Type Field), 및 오디오 데이터에 대한 언어 코드를 나타내는 언어 코드 필드(Language Code Field) 중 적어도 하나를 포함하는 것을 특징으로 하는 데이터 수신 장치.
25. The method of claim 24,
Wherein the audio metadata descriptor field comprises:
An emergency channel field indicating whether there is an emergency broadcast, a multi-view field indicating whether audio data corresponding to the left eye or right eye image is included in the multi-view, A language code valid field, a supplemental audio valid field indicating whether auxiliary audio data is present, a pre-mixed audio field indicating whether the main audio data is pre-mixed with the auxiliary audio data, A Supplemental Audio Type Field indicating a type of the auxiliary audio data, and a Language Code Field indicating a language code for the audio data. .
데이터 송수신 시스템에 있어서,
오디오 메타 데이터 패킷을 생성하여 데이터 수신 장치로 전송하는 데이터 전송 장치; 및
상기 데이터 전송 장치로부터 상기 오디오 메타 데이터 패킷을 수신하는 데이터 수신 장치;를 포함하고,
상기 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함하는 데이터 송수신 시스템.
In a data transmission / reception system,
A data transmission apparatus for generating an audio metadata packet and transmitting the audio metadata packet to a data reception apparatus; And
And a data receiving apparatus for receiving the audio metadata packet from the data transmission apparatus,
Wherein a header of the audio metadata packet includes a 3D audio field indicating whether or not a 3D audio sample packet is transmitted.
데이터 전송 장치에 있어서,
오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 생성하는 생성부; 및
데이터 수신 장치에 상기 디스플레이 식별 정보를 전송하는 전송부;를 포함하고,
상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드;를 포함하는, 데이터 전송 장치.
A data transfer apparatus comprising:
A generating unit for generating display identification information including feature information supported by the sink device with respect to audio data; And
And a transmitting unit for transmitting the display identification information to the data receiving apparatus,
And the display identification information includes a main / auxiliary audio property field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.
제27항에 있어서,
상기 메인/보조 오디오 특성 필드는,
상기 싱크 장치가 메인 오디오와 보조 오디오의 합성을 지원하는지 나타내는 오디오 믹스 필드(Audio Mix Field), 상기 싱크 장치가 보조 오디오를 지원하는지 나타내는 보조 오디오 지원 필드(Supplemental Audio Support Field), 상기 싱크 장치가 복수의 언어로 된 오디오 데이터를 지원하는지를 나타내는 언어 지원 필드(Language Support Field), 상기 싱크 장치가 멀티뷰 콘텐츠를 위한 멀티 스트림 오디오 데이터를 지원하는지를 나타내는 멀티뷰 오디오 지원 필드(Multiview Audio Support Field), 상기 싱크 장치가 핸들링할 수 있는 최대 오디오 스트림의 개수를 나타내는 최대 스트림 카운트 필드(Maximum Stream Count Field), 및 3D 오디오 디스크립터의 개수를 나타내는 오디오 디스크립터 개수 필드(Number Of Audio Descriptor Field) 중 적어도 하나를 포함하는 것을 특징으로 하는 데이터 전송 장치.
28. The method of claim 27,
The main / auxiliary audio property field includes:
An audio mix field indicating whether the sync apparatus supports synthesis of main audio and auxiliary audio, a supplemental audio support field indicating whether the sync apparatus supports auxiliary audio, (Multiview Audio Support Field) indicating whether the sync device supports multi-stream audio data for multi-view content, a language support field indicating whether the sync device supports multi-stream audio data for the multi- A maximum stream count field indicating a maximum number of audio streams that can be handled by the apparatus, and a number of audio descriptor field indicating the number of 3D audio descriptors. Data I feature Device.
제27항에 있어서,
상기 디스플레이 식별 정보는,
상기 싱크 장치가 긴급 상황 방송 수신 및 처리를 지원하는지를 나타내는 긴급 채널 필드(Emergency Channel Field)를 더 포함하는 것을 특징으로 하는 데이터 전송 장치.
28. The method of claim 27,
Wherein the display identification information comprises:
Further comprising an emergency channel field indicating whether the sink device supports emergency state broadcast reception and processing.
데이터 수신 장치에 있어서,
데이터 전송 장치로부터, 오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 수신하는 수신부; 및
상기 수신된 디스플레이 식별 정보를 분석하는 분석부;를 포함하고,
상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드;를 포함하는, 데이터 수신 장치.
In the data receiving apparatus,
A receiving unit for receiving, from the data transmission device, display identification information including characteristic information supported by the sink device with respect to audio data; And
And an analyzing unit for analyzing the received display identification information,
And the display identification information includes a main / auxiliary audio property field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.
제30항에 있어서,
상기 메인/보조 오디오 특성 필드는,
상기 싱크 장치가 메인 오디오와 보조 오디오의 합성을 지원하는지 나타내는 오디오 믹스 필드(Audio Mix Field), 상기 싱크 장치가 보조 오디오를 지원하는지 나타내는 보조 오디오 지원 필드(Supplemental Audio Support Field), 상기 싱크 장치가 복수의 언어로 된 오디오 데이터를 지원하는지를 나타내는 언어 지원 필드(Language Support Field), 상기 싱크 장치가 멀티뷰 콘텐츠를 위한 멀티 스트림 오디오 데이터를 지원하는지를 나타내는 멀티뷰 오디오 지원 필드(Multiview Audio Support Field), 상기 싱크 장치가 핸들링할 수 있는 최대 오디오 스트림의 개수를 나타내는 최대 스트림 카운트 필드(Maximum Stream Count Field), 및 3D 오디오 디스크립터의 개수를 나타내는 오디오 디스크립터 개수 필드(Number Of Audio Descriptor Field) 중 적어도 하나를 포함하는 것을 특징으로 하는 데이터 수신 장치.
31. The method of claim 30,
The main / auxiliary audio property field includes:
An audio mix field indicating whether the sync apparatus supports synthesis of main audio and auxiliary audio, a supplemental audio support field indicating whether the sync apparatus supports auxiliary audio, (Multiview Audio Support Field) indicating whether the sync device supports multi-stream audio data for multi-view content, a language support field indicating whether the sync device supports multi-stream audio data for the multi- A maximum stream count field indicating a maximum number of audio streams that can be handled by the apparatus, and a number of audio descriptor field indicating the number of 3D audio descriptors. Number of data to be characterized Device.
제30항에 있어서,
상기 디스플레이 식별 정보는,
상기 싱크 장치가 긴급 상황 방송 수신 및 처리를 지원하는지를 나타내는 긴급 채널 필드(Emergency Channel Field)를 더 포함하는 것을 특징으로 하는 데이터 수신 장치.
31. The method of claim 30,
Wherein the display identification information comprises:
Further comprising an emergency channel field indicating whether the sink device supports reception and processing of an emergency situation broadcast.
데이터 송수신 시스템에 있어서,
오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 생성하여 데이터 수신 장치로 전송하는 데이터 전송 장치; 및
상기 데이터 전송 장치로부터 상기 디스플레이 식별 정보를 수신하여 분석하는 데이터 수신 장치;를 포함하고,
상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드;를 포함하는, 데이터 송수신 시스템.
In a data transmission / reception system,
A data transmission device for generating display identification information including the feature information supported by the sink device with respect to the audio data and transmitting the display identification information to the data reception device; And
And a data receiving device for receiving and analyzing the display identification information from the data transmission device,
Wherein the display identification information comprises a main / auxiliary audio property field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.
데이터 전송 방법에 있어서,
제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 생성하는 단계; 및
상기 생성된 패킷을 데이터 수신 장치로 전송하는 단계;를 포함하고,
상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함하는 데이터 전송 방법.
In a data transmission method,
Generating a packet including a first subpacket and a second subpacket; And
And transmitting the generated packet to a data receiving apparatus,
Wherein the first subpacket and the second subpacket comprise different audio data for the first content.
데이터 수신 방법에 있어서,
데이터 전송 장치로부터 제1 서브 패킷 및 제2 서브 패킷 포함하는 패킷을 수신하는 단계; 및
상기 수신된 제1 서브 패킷 및 상기 제2 서브 패킷을 파싱하는 단계;를 포함하고,
상기 제1 서브 패킷 및 상기 제2 서브 패킷은 제1 콘텐츠에 대한 상이한 오디오 데이터를 포함하는, 데이터 수신 방법.
In the data receiving method,
Receiving a packet including a first subpacket and a second subpacket from a data transmission apparatus; And
And parsing the received first subpacket and the second subpacket,
Wherein the first subpacket and the second subpacket comprise different audio data for the first content.
데이터 전송 방법에 있어서,
오디오 메타 데이터 패킷을 생성하는 단계; 및
상기 생성된 오디오 메타 데이터 패킷을 데이터 수신 장치로 전송하는 단계;를 포함하고,
상기 생성된 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함하는, 데이터 전송 방법.
In a data transmission method,
Generating an audio metadata packet; And
And transmitting the generated audio metadata packet to a data receiving apparatus,
Wherein a header of the generated audio metadata packet includes a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.
데이터 수신 방법에 있어서,
데이터 전송 장치로부터 오디오 메타 데이터 패킷을 수신하는 단계; 및
상기 수신된 오디오 메타 데이터 패킷을 파싱하는 단계;를 포함하고,
상기 수신된 오디오 메타 데이터 패킷의 헤더(header)는, 3D 오디오 샘플 패킷의 전송여부를 나타내는 3D 오디오 필드(3D Audio Field)를 포함하는, 데이터 수신 방법.
In the data receiving method,
Receiving an audio metadata packet from a data transmission device; And
Parsing the received audio metadata packet,
Wherein a header of the received audio metadata packet includes a 3D audio field indicating whether a 3D audio sample packet is transmitted or not.
데이터 전송 방법에 있어서,
오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 생성하는 단계; 및
데이터 수신 장치에 상기 디스플레이 식별 정보를 전송하는 단계;를 포함하고,
상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드;를 포함하는, 데이터 전송 방법.
In a data transmission method,
Generating display identification information including feature information supported by the sink device with respect to audio data; And
And transmitting the display identification information to the data receiving apparatus,
Wherein the display identification information comprises a main / auxiliary audio property field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.
데이터 수신 방법에 있어서,
데이터 전송 장치로부터, 오디오 데이터에 관하여 싱크 장치에 의해 지원되는 특징 정보를 포함하는 디스플레이 식별 정보를 수신하는 단계; 및
상기 수신된 디스플레이 식별 정보를 분석하는 단계;를 포함하고,
상기 디스플레이 식별 정보는, 상기 싱크 장치가 지원하는 메인 오디오 및 보조 오디오의 특성에 대한 정보를 나타내는 메인/보조 오디오 특성 필드;를 포함하는, 데이터 수신 방법.
In the data receiving method,
Receiving, from a data transmission device, display identification information including feature information supported by a sink device with respect to audio data; And
And analyzing the received display identification information,
Wherein the display identification information comprises a main / auxiliary audio property field indicating information on characteristics of main audio and auxiliary audio supported by the sink device.
KR1020140025653A 2013-03-15 2014-03-04 Data transmitting appratus, data receiving apparatus, data tranceiving system, method for transmitting data and method for receiving data KR102180826B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US14/213,074 US10356484B2 (en) 2013-03-15 2014-03-14 Data transmitting apparatus, data receiving apparatus, data transceiving system, method for transmitting data, and method for receiving data
EP14160082.5A EP2779578B1 (en) 2013-03-15 2014-03-14 Data Transmitting Apparatus, Data Receiving Apparatus, Data Transceiving System, Method for Transmitting Data, and Method for Receiving Data
TW103109537A TWI666931B (en) 2013-03-15 2014-03-14 Data transmitting apparatus, data receiving apparatus and data transceiving system
CN201410098153.4A CN104053039B (en) 2013-03-15 2014-03-17 Data transmitter-receiver set, data receiving-transmitting system and data receiving-transmitting method
JP2015562939A JP6514649B2 (en) 2013-03-15 2014-03-17 Data transmission apparatus, data reception apparatus, data transmission / reception system, data transmission method and data reception method
PCT/KR2014/002230 WO2014142627A1 (en) 2013-03-15 2014-03-17 Data transmitting apparatus, data receiving apparatus, data transceiving system, method for transmitting data, and method for receiving data

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361789803P 2013-03-15 2013-03-15
US61/789,803 2013-03-15
US201361802807P 2013-03-18 2013-03-18
US61/802,807 2013-03-18

Publications (2)

Publication Number Publication Date
KR20140115247A true KR20140115247A (en) 2014-09-30
KR102180826B1 KR102180826B1 (en) 2020-11-20

Family

ID=51758637

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020140025030A KR102201826B1 (en) 2013-03-15 2014-03-03 Data transmitting appratus, data receiving apparatus, data tranceiving system, method for transmitting data and method for receiving data
KR1020140025653A KR102180826B1 (en) 2013-03-15 2014-03-04 Data transmitting appratus, data receiving apparatus, data tranceiving system, method for transmitting data and method for receiving data

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020140025030A KR102201826B1 (en) 2013-03-15 2014-03-03 Data transmitting appratus, data receiving apparatus, data tranceiving system, method for transmitting data and method for receiving data

Country Status (3)

Country Link
JP (2) JP6514648B2 (en)
KR (2) KR102201826B1 (en)
TW (2) TWI666931B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016129904A1 (en) * 2015-02-10 2016-08-18 엘지전자 주식회사 Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method, and broadcast signal reception method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09149399A (en) * 1995-11-21 1997-06-06 Matsushita Electric Ind Co Ltd Data transmission system
KR20120016407A (en) * 2010-08-16 2012-02-24 엘지전자 주식회사 Operating method of display system outputting audio description for the visually impaired and display system enabling of the method
JP2012049934A (en) * 2010-08-30 2012-03-08 Hitachi Consumer Electronics Co Ltd Transmission system

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08331552A (en) * 1995-05-31 1996-12-13 Alpine Electron Inc Voice signal processing unit for bs tuner
JP3437371B2 (en) * 1996-03-22 2003-08-18 パイオニア株式会社 Information recording device and information reproducing device
DE60041259D1 (en) * 1999-07-14 2009-02-12 Panasonic Corp DEVICE FOR PROVIDING INFORMATION, INFORMATION RECEIVER AND STORAGE MEDIUM
US8046792B2 (en) * 2002-03-20 2011-10-25 Tvworks, Llc Multi-channel audio enhancement for television
US7227899B2 (en) * 2003-08-13 2007-06-05 Skystream Networks Inc. Method and system for re-multiplexing of content-modified MPEG-2 transport streams using interpolation of packet arrival times
WO2007018308A1 (en) * 2005-08-09 2007-02-15 Matsushita Electric Industrial Co., Ltd. Recording medium, playback apparatus, method and program
KR100750143B1 (en) * 2005-12-05 2007-08-21 삼성전자주식회사 Method and apparatus for storing digital broadcasting Signal
JP2007281716A (en) * 2006-04-04 2007-10-25 Sony Corp Wireless moving picture transmission system, wireless moving picture transmission method, wireless moving picture transmission apparatus, wireless moving picture transmission method, and computer program thereof, wireless moving picture receiving apparatus, wireless moving picture receiving method, and computer program thereof
JP2008005112A (en) * 2006-06-21 2008-01-10 Matsushita Electric Ind Co Ltd Stream encoder and stream decoder
TWI420504B (en) * 2007-03-19 2013-12-21 Cyberlink Corp Method and related system capable of multiple displays
US8744337B2 (en) * 2007-06-18 2014-06-03 Qualcomm Incorporated Apparatus and methods of enhancing radio programming
KR100942142B1 (en) * 2007-10-11 2010-02-16 한국전자통신연구원 Method and apparatus for transmitting and receiving of the object based audio contents
JP4874284B2 (en) * 2008-03-27 2012-02-15 パナソニック株式会社 Digital broadcast receiver
JP2009253414A (en) * 2008-04-02 2009-10-29 Nec Corp Content delivery system, repeater, terminal device, content delivery method, program and recording medium
JP2012507925A (en) * 2008-10-31 2012-03-29 トムソン ライセンシング Method, apparatus and system for providing supplemental audio / video content
JP2010200087A (en) * 2009-02-26 2010-09-09 Funai Electric Co Ltd Video apparatus
JP2012010311A (en) * 2010-05-26 2012-01-12 Sony Corp Transmitter, transmission method, receiver, reception method and transmission/reception system
JP2012060205A (en) * 2010-09-06 2012-03-22 Hitachi Consumer Electronics Co Ltd Display system, display device, and repeating device
EP2451196A1 (en) * 2010-11-05 2012-05-09 Thomson Licensing Method and apparatus for generating and for decoding sound field data including ambisonics sound field data of an order higher than three
JP2012151688A (en) * 2011-01-19 2012-08-09 Canon Inc Video reproduction device and method of controlling the same, program, and storage medium
US9398322B2 (en) * 2011-04-27 2016-07-19 Time Warner Cable Enterprises Llc Multi-lingual audio streaming
JP2012253439A (en) * 2011-05-31 2012-12-20 Kddi Corp Multimedia device
US20140118616A1 (en) * 2012-10-26 2014-05-01 Cox Communications, Inc. Systems and Methods of Video Delivery to a Multilingual Audience

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09149399A (en) * 1995-11-21 1997-06-06 Matsushita Electric Ind Co Ltd Data transmission system
KR20120016407A (en) * 2010-08-16 2012-02-24 엘지전자 주식회사 Operating method of display system outputting audio description for the visually impaired and display system enabling of the method
JP2012049934A (en) * 2010-08-30 2012-03-08 Hitachi Consumer Electronics Co Ltd Transmission system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016129904A1 (en) * 2015-02-10 2016-08-18 엘지전자 주식회사 Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method, and broadcast signal reception method
US10341036B2 (en) 2015-02-10 2019-07-02 Lg Electronics Inc. Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method, and broadcast signal reception method

Also Published As

Publication number Publication date
JP6514648B2 (en) 2019-05-15
KR20140115245A (en) 2014-09-30
KR102180826B1 (en) 2020-11-20
TWI625056B (en) 2018-05-21
JP6514649B2 (en) 2019-05-22
KR102201826B1 (en) 2021-01-12
TW201442494A (en) 2014-11-01
JP2016515352A (en) 2016-05-26
TWI666931B (en) 2019-07-21
JP2016513930A (en) 2016-05-16
TW201438460A (en) 2014-10-01

Similar Documents

Publication Publication Date Title
US10356484B2 (en) Data transmitting apparatus, data receiving apparatus, data transceiving system, method for transmitting data, and method for receiving data
US9723245B2 (en) Data transmitting apparatus, data receiving apparatus, data transceiving system, method for transmitting data, and method for receiving data
US9313576B2 (en) Data transmitting apparatus, data receiving apparatus, data transceiving system, data transmitting method, and data receiving method
US20130222690A1 (en) Data transmission apparatus, data receiving apparatus, data transceiving system, data transmission method and data receiving method
US20230067389A1 (en) Transmission device, transmission method, reception device, and a reception method
EP2629541A2 (en) Data transmitting apparatus, data receiving apparatus, data transceiving system, data transmitting method, data receiving method and data transceiving method
CN102655584A (en) Media data transmitting and playing method and system in tele-presence technology
US9661107B2 (en) Data transmitting apparatus, data receiving apparatus, data transceiving system, data transmitting method, data receiving method and data transceiving method configured to distinguish packets
US10878828B2 (en) Transmission device, transmission method, reception device, and reception method
KR102180826B1 (en) Data transmitting appratus, data receiving apparatus, data tranceiving system, method for transmitting data and method for receiving data
JP2017516329A (en) Transmitter, receiver, system and signal for synchronous transmission of auxiliary data frames via HDMI interface
KR102012231B1 (en) Data transmitting apparatus, data receiving apparatus, data transreceiving system, data transmitting method, data receiving method and data transreceiving method
JP6635036B2 (en) Transmitting device, transmitting method, receiving device and receiving method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right