KR20090055399A - Broadcasting system and method of processing audio data - Google Patents

Broadcasting system and method of processing audio data Download PDF

Info

Publication number
KR20090055399A
KR20090055399A KR1020070122307A KR20070122307A KR20090055399A KR 20090055399 A KR20090055399 A KR 20090055399A KR 1020070122307 A KR1020070122307 A KR 1020070122307A KR 20070122307 A KR20070122307 A KR 20070122307A KR 20090055399 A KR20090055399 A KR 20090055399A
Authority
KR
South Korea
Prior art keywords
bsac
mpeg
audio data
audio
present
Prior art date
Application number
KR1020070122307A
Other languages
Korean (ko)
Other versions
KR101435815B1 (en
Inventor
서종열
오현오
김봉면
김진필
송재형
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020070122307A priority Critical patent/KR101435815B1/en
Priority to EP08170248A priority patent/EP2093911A3/en
Publication of KR20090055399A publication Critical patent/KR20090055399A/en
Application granted granted Critical
Publication of KR101435815B1 publication Critical patent/KR101435815B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/65Arrangements characterised by transmission systems for broadcast
    • H04H20/71Wireless systems
    • H04H20/72Wireless systems of terrestrial networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H2201/00Aspects of broadcast communication
    • H04H2201/10Aspects of broadcast communication characterised by the type of broadcast system
    • H04H2201/11Aspects of broadcast communication characterised by the type of broadcast system digital multimedia broadcasting [DMB]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/54Store-and-forward switching systems 
    • H04L12/56Packet switching systems
    • H04L12/5601Transfer mode dependent, e.g. ATM
    • H04L2012/5638Services, e.g. multimedia, GOS, QOS
    • H04L2012/5646Cell characteristics, e.g. loss, delay, jitter, sequence integrity
    • H04L2012/5652Cell construction, e.g. including header, packetisation, depacketisation, assembly, reassembly

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

A broadcasting system and an audio data processing method are provided to supply a viewer with a high sound quality service through mobile broadcasting by achieving a multi channel audio service in terrestrial DMB. An audio data processing method of a broadcasting system comprises the following steps. A mobile broadcasting signal including multi channel audio data is received. By using identification information included in the mobile broadcasting signal, the multi channel audio data is extracted. The extracted multi channel audio data is decoded and outputted. The identification information for identifying the multi channel audio data is included in an object descriptor.

Description

방송 시스템 및 오디오 데이터 처리 방법{broadcasting system and method of processing audio data}Broadcasting system and method of processing audio data}

본 발명은 방송 시스템에 관한 것으로서, 더욱 상세하게는 멀티 채널 오디오 서비스를 지원하기 위한 이동형 방송 시스템 및 오디오 데이터 처리 방법에 관한 것이다. The present invention relates to a broadcast system, and more particularly, to a mobile broadcast system and an audio data processing method for supporting a multi-channel audio service.

고품질의 음성 및 영상 서비스를 언제 어디서나 제공할 수 있는 이동형 방송 중 디지털 멀티미디어 방송(Digital Multimedia Broadcasting ; DMB)은 듣는 방송에서 보고 듣는 방송으로 진화하였다. 그리고 뛰어난 이동수신 특성을 바탕으로 음악, 문자, 동영상 등 다양한 콘텐츠를 휴대폰, PDA 등 휴대용 단말을 통해 전달함으로써, 고화질, 고음질을 추구하는 디지털 지상파 TV 방송과 보완적인 관계를 구축한다. Digital multimedia broadcasting (DMB) of mobile broadcasting that can provide high quality voice and video services anytime and anywhere has evolved from listening broadcasting to watching broadcasting. Based on the excellent mobile reception characteristics, various contents such as music, text, and video are delivered through mobile terminals such as mobile phones and PDAs, thereby establishing a complementary relationship with digital terrestrial TV broadcasting pursuing high quality and high sound quality.

상기 DMB는 유럽의 지상파 라디오 표준으로 채택된 Eureka-147 디지털 오디오 방송(Digital Audio Broadcasting : DAB)에 기반하고 있다. 즉, 상기 Eureka-147은 디지털 오디오 방송(DAB)을 위하여 창안되었으나 2MHz의 좁은 주파수 대역폭을 이용하여 작은 화면 크기의 동영상을 서비스하는 지상파 DMB의 기반 기술로도 사용되고 있다.The DMB is based on Eureka-147 Digital Audio Broadcasting (DAB), which has been adopted as the European terrestrial radio standard. That is, the Eureka-147 was created for digital audio broadcasting (DAB), but is also used as a ground-based DMB technology that serves a small screen size video using a narrow frequency bandwidth of 2 MHz.

또한 DMB는 MPEG-4 방식의 데이터 전송 외에도 TPEG, BWS(Broadcast Website) 등 다른 형태들의 데이터 전송이 가능하여, 이동 수신의 멀티미디어 방송을 지원할 수 있다. 이런 점은 DMB 수신기 자체 뿐 아니라 PDA, 포터블 DVD, 모바일 폰 등 기존 모바일 기기에 많이 응용할 수 있다는 점에서 그 산업적 파급 효과가 매우 크다 할 수 있다. 상기 MPEG-4 방식은 콘텐츠(contents)에 기반한 영상 표현 방법을 사용하며, 화면을 모양 정보, 움직임 정보, 질감 정보라는 속성을 가지는 비디오 오브젝트들로 분리하여 처리한다. 콘텐츠 기반 영상표현 방법은 다양한 멀티미디어 응용에서 오브젝트 사이의 상호 관계를 정립하여 이들의 접근과 조작을 쉽게 한다. 다시 말해, MPEG-4에서의 오브젝트 지향 대화형 기능은 멀티미디어 데이터 액세스에 있어서 화면이나 음향의 오브젝트 요소들을 독립적으로 취급하면서 이들을 서로 링크에 의해 결합해 사용자가 화면이나 음향을 자유로이 구성할 수 있도록 한다. 예를 들어, 화면에서 배경을 그대로 둔 채 주인공만을 교체하는 등의 처리가 이전까지는 프로덕션 단계에서만 가능했으나 MPEG-4에서는 사용자 단계에서 가능해진다.In addition to the MPEG-4 data transmission, the DMB can transmit other types of data such as TPEG and BWS (Broadcast Website), thereby supporting multimedia broadcasting of mobile reception. This can be said that the industrial ripple effect can be very large in that it can be applied not only to the DMB receiver itself but also to existing mobile devices such as PDAs, portable DVDs, and mobile phones. The MPEG-4 method uses an image expression method based on contents, and processes the screen into video objects having attributes of shape information, motion information, and texture information. The content-based image representation method establishes the interrelationship between objects in various multimedia applications to facilitate their access and manipulation. In other words, the object-oriented interactive function in MPEG-4 handles the object elements of a picture or sound independently in multimedia data access, and combines them by linking with each other so that the user can freely configure the picture or sound. For example, processing such as replacing only the main character with the background on the screen previously possible only in the production stage, but in the MPEG-4 user stage.

본 발명의 목적은 멀티 채널 오디오(Multi-channel audio) 서비스를 지원하기 위한 지상파 DMB 방송 시스템 및 오디오 데이터 처리 방법을 제공함에 있다. An object of the present invention is to provide a terrestrial DMB broadcasting system and an audio data processing method for supporting a multi-channel audio service.

본 발명의 다른 목적은 MPEG 서라운드(surround) 오디오 서비스를 지원하기 위한 지상파 DMB 방송 시스템 및 오디오 데이터 처리 방법을 제공함에 있다.Another object of the present invention is to provide a terrestrial DMB broadcasting system and an audio data processing method for supporting an MPEG surround audio service.

본 발명에 따른 방송 시스템 중 수신 시스템의 오디오 데이터 처리 방법은, 멀티 채널 오디오 데이터를 포함하는 이동형 방송 신호를 수신하는 단계, 상기 이동형 방송 신호에 포함된 식별 정보를 이용하여 멀티 채널 오디오 데이터를 추출하는 단계, 및 상기 추출된 멀티 채널 오디오 데이터를 디코딩하여 출력하는 단계를 포함할 수 있다.In the broadcasting system according to the present invention, a method for processing audio data in a receiving system includes: receiving a mobile broadcast signal including multichannel audio data; extracting multichannel audio data using identification information included in the mobile broadcast signal; And decoding and outputting the extracted multi-channel audio data.

본 발명은 지상파 DMB에서 멀티 채널 오디오 서비스를 가능하게 함으로써, 이동 방송을 통해 보다 고음질 서비스를 시청자에게 제공할 수 있는 효과가 있다.The present invention enables the multi-channel audio service in the terrestrial DMB, thereby providing a higher-quality sound service to viewers through mobile broadcasting.

본 발명은 지상파 DMB를 전송할 수 있는 송신 시스템에서 5.1 채널과 같은 멀티 채널 오디오 신호를 전송할 수 있도록 하고, 지상파 DMB를 수신할 수 있는 수신 시스템에서 상기 멀티채널 오디오 신호를 수신하여 출력할 수 있도록 하는데 있다.The present invention provides a multi-channel audio signal such as a 5.1 channel in a transmission system capable of transmitting terrestrial DMB, and to receive and output the multi-channel audio signal in a reception system capable of receiving terrestrial DMB. .

도 1은 본 발명에 따른 지상파 DMB 패킷 구조에 대한 일 실시예를 보이고 있다.1 shows an embodiment of a terrestrial DMB packet structure according to the present invention.

도 1에서, DMB 방송을 위한 송신 시스템 내 MPEG-4 시스템은 기 설정된 압축 알고리즘으로 각각 압축 부호화된 오디오/비디오 요소 스트림(Audio/Video elementary stream ; A/V ES)을 MPEG-4 싱크 레이어(Sync Layer ; SL)로 패킷 화(packetize)한다. In FIG. 1, an MPEG-4 system in a transmission system for DMB broadcasting uses an MPEG-4 sync layer to perform audio / video elementary streams (A / V ES) that are each compressed and coded with a predetermined compression algorithm. Packetize (Layer; SL).

예를 들어, 비디오는 MPEG-4/AVC(Advanced Video Coding)(MPEG-4 파트 10)을 사용하여 압축 부호화한 후 MPEG-4 SL(Sync Layer)로 패킷화할 수 있고, 오브젝트 지향 대화형 기능을 지원하기 위해 MPEG-4 BIFS(Binary Format for Scenes) 대화형 콘텐츠들도 MPEG-4 SL로 패킷화할 수 있다.For example, video can be compressed and encoded using MPEG-4 / AVC (Advanced Video Coding) (MPEG-4 Part 10) and packetized into MPEG-4 Sync Layer (SL), which provides object-oriented interactive functionality. To support this, MPEG-4 BIFS (Binary Format for Scenes) interactive content can also be packetized in MPEG-4 SL.

그리고 오디오는 MPEG-4/BSAC(Bit Sliced Arithmetic Coding) 방식을 사용하여 압축 부호화한 후 MPEG-4 SL로 패킷화하거나, MPEG 서라운드 방식을 사용하여 압축 부호화한 후 MPEG-4 SL로 패킷화할 수 있다. 다른 예로, MPEG-4 BSAC과 MPEG 서라운드가 조합된 오디오 ES를 MPEG-4 SL로 패킷화할 수 있다. 설명의 편의를 위해 상기 MPEG-4 BSAC 오디오 신호를 메인 오디오 데이터라 하기로 한다.The audio may be compressed and encoded using MPEG-4 / BSAC (Bit Sliced Arithmetic Coding), and then packetized into MPEG-4 SL, or compressed and encoded using MPEG surround, and then packetized into MPEG-4 SL. . As another example, an audio ES combined with MPEG-4 BSAC and MPEG Surround may be packetized into MPEG-4 SL. For convenience of description, the MPEG-4 BSAC audio signal will be referred to as main audio data.

송신 시스템 내 MPEG-2 시스템은 MPEG-4 시스템에서 패킷화된 MPEG-4 SL 패킷에 대해 PES(packetized elementary stream) 형태로 패킷화하고, 이어 MPEG-2 트랜스포트 스트림(Transport Stream ; TS)으로 패킷화한다. 상기 MPEG-2 TS 패킷은 헤더(header)와 페이로드(payload)로 구성된다. 상기 MPEG-2 시스템은 MPEG-2 TS 패킷에 대해 리드-솔로몬 부호화를 수행하여 TS 패킷 뒤에 16 바이트 크기의 리드-솔로몬(Reed-Solomon) 코드(code)를 붙이고, 이어 바이트 인터리빙(byte interleaving)을 수행한 후 그 결과를 수신 시스템으로 전송한다.The MPEG-2 system in the transmission system packetizes the MPEG-4 SL packet packetized in the MPEG-4 system in the form of a packetized elementary stream (PES), and then the packet in an MPEG-2 transport stream (TS). Make up. The MPEG-2 TS packet is composed of a header and a payload. The MPEG-2 system performs Reed-Solomon encoding on the MPEG-2 TS packet, attaches a Reed-Solomon code having a size of 16 bytes to the TS packet, and then byte interleaving. After performing, the result is transmitted to the receiving system.

이와 같이 지상파 DMB의 송신측에서는 MPEG-4 시스템 표준을 사용하여 오디오/비디오 오브젝트(A/V Object)들을 전송하고, 이러한 AV 오브젝트들의 시공간상의 배치를 나타내는 장면 서술 정보(scene description information)를 전송함으로 써, 수신 시스템에서 장면을 구성한 후, 2차원 디스플레이에 맞게 렌더링하여 표시할 수 있게 한다. 실제적으로 장면 서술 정보는 트리 구조로 되어 있으며, 트리의 각 노드는 A/V 오브젝트를 표시하게 된다. 그리고 상기 트리의 종단 노드에 오브젝트 서술자(Object Descriptor ; OD)가 연결되어 있는데, 이 OD는 오브젝트의 여러 가지 속성과 이 오브젝트에 해당하는 실제 데이터의 위치를 알려주는 정보를 포함하고 있다. 따라서 수신 시스템은 우선 장면 구성 정보를 참조한 후 각 오브젝트의 시공간 상의 위치를 정하고, OD를 이용하여 오브젝트 데이터를 찾아와서 지정된 속성에 따라 이를 장면에 배치한다. As described above, the transmitting side of the terrestrial DMB transmits audio / video objects using the MPEG-4 system standard, and transmits scene description information indicating the arrangement of these AV objects in time and space. After the scene is composed in the receiving system, it can be rendered and displayed for a two-dimensional display. In reality, the scene description information has a tree structure, and each node of the tree represents an A / V object. An object descriptor (OD) is connected to an end node of the tree. The OD includes information indicating various attributes of an object and the location of actual data corresponding to the object. Therefore, the reception system first refers to the scene configuration information, determines the position in each object's space time and space, finds object data using the OD, and arranges the object data in the scene according to a specified attribute.

또한 송신측에서는 MPEG-2 TS의 PAT(Program Association Table)와 MPEG-4 시스템 표준의 초기 객체 서술자(Initial Object Descriptor ; IOD)를 다중화 스트림 내에 전송한다. 이때 상기 IOD는 MPEG-2 TS의 PMT(Program Map Table)에 포함된다.In addition, the transmitting side transmits a PAT (Program Association Table) of MPEG-2 TS and an Initial Object Descriptor (IOD) of the MPEG-4 system standard in a multiplexed stream. In this case, the IOD is included in a program map table (PMT) of the MPEG-2 TS.

즉, MPEG-4로 압축 부호화된 멀티미디어를 MPEG-2 TS로 패킷화할 때, 상기된 PMT 신택스에 MPEG-4에서 정의된 IOD와 SL(Sync Layer) descriptor가 포함된다. That is, when packetizing MPEG-4 compressed and encoded multimedia into MPEG-2 TS, the above-described PMT syntax includes IOD and SL (Sync Layer) descriptor defined in MPEG-4.

상기 IOD는 전송되는 MPEG-4 콘텐츠의 프로파일(profile)과 레벨(level) 정보를 알려준다. 또한 OD 스트림의 ES(Elementary Stream) ID와 SD(Scene Description) 스트림의 ES ID 정보를 포함한다. 즉, IOD의 ES descriptor에 OD 스트림에 관한 정보와 SD 스트림에 관한 정보가 기술되어 있다. 상기 IOD는 SD의 BIFS와 OD를 연결시키는 포인터 역할을 한다. 따라서 수신 시스템의 MPEG-4 시스템에서 IOD를 해석하면 장면 기술에 관한 정보와 각각 오브젝트에 관한 정보를 전송 하는 논리적 채널(ES_ID)을 얻을 수 있다. 이 후 각각의 논리적 채널에 접근해서 장면을 구성하고, 각각 오브젝트에 관한 정보를 얻은 후에 음향 혹은 영상에 관한 논리적 채널을 얻을 수 있다.The IOD informs the profile and level information of the transmitted MPEG-4 content. It also includes the ES (Elementary Stream) ID of the OD stream and the ES ID information of the Scene Description (SD) stream. That is, information on the OD stream and information on the SD stream is described in the ES descriptor of the IOD. The IOD serves as a pointer connecting the BIFS and the OD of the SD. Therefore, when the IOD is analyzed in the MPEG-4 system of the receiving system, a logical channel (ES_ID) for transmitting information about scene description and information about each object can be obtained. Each logical channel can then be accessed to compose a scene, and after obtaining information about the object, the logical channel for sound or video can be obtained.

상기 OD는 ES descriptor를 포함하고, 상기 ES descriptor는 ES_ID와 DecoderConfigDescriptor를 포함한다. 상기 DecoderConfigDescriptor는 전송되는 스트림의 종류를 표시한 stream type 정보, 오브젝트의 타입을 알 수 있는 objectTypeIndication, 그리고 각 스트림에 대한 디코딩 정보를 알 수 있는 Decoderspecific info를 포함한다. The OD includes an ES descriptor, and the ES descriptor includes an ES_ID and a DecoderConfigDescriptor. The DecoderConfigDescriptor includes stream type information indicating a type of a stream to be transmitted, an objectTypeIndication indicating an object type, and a Decoderspecific info indicating decoding information for each stream.

본 발명은 수신 시스템에서 멀티채널 오디오 신호를 수신하여 올바르게 출력할 수 있도록 하기 위해서, 상기 PMT를 통해 전송되는 stream type 값에 MPEG 서라운드 오디오 데이터를 유일하게 구분할 수 있는 값을 할당한다. 즉, 전송되는 스트림이 MPEG 서라운드 오디오 스트림이면, 도 2와 같이 stream type 값에 0x1C를 할당하는 것을 일 실시예로 한다. 상기 0x1C 값은 하나의 실시예이며, 시스템 설계자에 의해 다른 값으로 변경될 수 있다. In the present invention, in order to receive and correctly output a multi-channel audio signal in a reception system, a value that can uniquely distinguish MPEG surround audio data is assigned to a stream type value transmitted through the PMT. That is, if the stream to be transmitted is an MPEG surround audio stream, 0x1C is assigned to the stream type value as shown in FIG. 2. The 0x1C value is one embodiment and can be changed to another value by the system designer.

이와 같이 본 발명은 PMT를 통해 MPEG Surround audio data를 signaling 하기 위해 multi channel extension audio를 위한 stream type 값을 정의한다.As described above, the present invention defines a stream type value for multi-channel extension audio for signaling MPEG surround audio data through PMT.

여기서, 스트림 타입을 정의하는 이유는 메인 오디오 데이터와 멀티 채널 오디오 데이터를 위한 서브 채널(sub channel) 데이터를 구분해야 할 필요가 있기 때문이다. 예를 들어, 지상파 DMB 수신 시스템의 사양에 따라 멀티 채널 오디오를 지원하지 못하는 시스템이 있을 수도 있으며 이 경우에 메인 채널 오디오만을 디코딩 하고 multi channel extension audio로 정의된 stream type 데이터를 무시할 수 있어야 한다.The reason for defining the stream type is that it is necessary to distinguish subchannel data for main audio data and multichannel audio data. For example, some systems may not support multichannel audio depending on the specifications of terrestrial DMB receiving system. In this case, it is necessary to decode only main channel audio and ignore stream type data defined as multichannel extension audio.

도 3 내지 도 5는 본 발명에 따른 멀티 채널 오디오 데이터(예를 들어, MPS 오디오 데이터)를 MPEG SL에 패킷화하는 방법의 실시예들을 보이고 있다. 3 to 5 illustrate embodiments of a method of packetizing multi-channel audio data (eg, MPS audio data) into MPEG SL according to the present invention.

도 3은 MPS ES를 현재의 오디오 ES 내 보조 데이터(Ancillary data)(즉, BSAC Extencion) 필드에 삽입하여 MPEG SL로 패킷화하는 방법의 예를 보이고 있다. 즉, 하나의 SL 패킷 내 페이로드에 BSAC ES와 MPS ES가 모두 삽입된다. 이때 오디오 ES를 전송하는 각 SL 패킷의 ES_ID는 BSAC ES와 MPS ES의 구분 없이 동일한 값(예, 0x101)을 갖는다.FIG. 3 shows an example of a method of inserting an MPS ES into an ancillary data (ie, BSAC Extencion) field in the current audio ES and packetizing it into MPEG SL. That is, both the BSAC ES and the MPS ES are inserted into the payload in one SL packet. At this time, the ES_ID of each SL packet transmitting the audio ES has the same value (eg, 0x101) without distinguishing between the BSAC ES and the MPS ES.

도 4는 MPS ES에 별도의 ES_ID를 할당하고, BSAC ES를 전송하는 SL 패킷과 구분되어 별도의 SL 패킷으로 전송하는 방법의 예를 보이고 있다.4 shows an example of a method of allocating a separate ES_ID to the MPS ES and distinguishing the SL packet from which the BSAC ES is transmitted and transmitting the separate SL packet.

만일 BSAC ES의 ES_ID가 0x101이라고 가정하면, MPS ES의 ES_ID는 0x101이 아닌 값 예를 들어, 0x105로 할당할 수 있다. 이때 MPS는 비트레이트(bitrate)이 낮이서 복수개의 AU(Access unit)를 묶은 수퍼 프레임 단위로 SL 패킷 내 페이로드에 삽입한다. 도 4는 3개의 MPS AU를 묶은 MPS 수퍼 프레임이 하나의 SL 패킷 내 페이로드에 삽입된 예를 보이고 있다.If the ES_ID of the BSAC ES is 0x101, the ES_ID of the MPS ES may be assigned a value other than 0x101, for example, 0x105. At this time, since the MPS has a low bitrate, the MPS inserts a plurality of access units (AUs) into the payload in the SL packet in a super frame unit. FIG. 4 shows an example in which an MPS super frame that combines three MPS AUs is inserted into a payload in one SL packet.

도 5는 MPS ES를 위해 독립적인 서브 채널로 할당하고, 할당된 서브 채널로 MPS ES를 전송하는 방법의 예를 보이고 있다. FIG. 5 shows an example of a method of allocating an independent subchannel for the MPS ES and transmitting the MPS ES to the assigned subchannel.

예를 들어, 서브 채널 A를 통해 비디오, BSAC 오디오, 시스템 정보(예, PMT, PAT 등)을 모두 전송하고, 새로이 할당된 서브 채널 B를 통해 MPS 오디오만 전송할 수 있다. 이때 상기 서브 채널 B로 전송되는 MPS ES의 ES_ID는 BSAC ES의 ES_ID와 동일한 값을 가질 수도 있고, 다른 값을 가질 수도 있다.For example, video, BSAC audio, and system information (eg, PMT, PAT, etc.) may be transmitted through subchannel A, and only MPS audio may be transmitted through newly allocated subchannel B. In this case, the ES_ID of the MPS ES transmitted to the subchannel B may have the same value as the ES_ID of the BSAC ES or may have a different value.

전술한 바와 같이 멀티 채널 오디오 서비스를 지원하기 위해서는 ES_ID, OD_ID를 정의해야 하고, MPS를 위한 DecoderConfigDescriptor를 정의해야 한다. 또한 MPS를 독립적인 ES로 전송시 TS 레이트(rate)를 최적화(optimize)하기 위한 ㅅ수퍼 프레임(per frame) 구조를 정의해야 한다.As described above, in order to support the multi-channel audio service, ES_ID and OD_ID should be defined, and DecoderConfigDescriptor for MPS should be defined. In addition, it is necessary to define a super frame structure for optimizing the TS rate when transmitting the MPS to an independent ES.

여기서, 공간 오디오 데이터를 전송하는 ES는 Audio Object Type “MPEG Surround”에 의해 식별되는 것을 일 실시예로 한다(An elementary stream carrying spatial audio data is identified by the Audio Object Type “MPEG Surround”). 이때 MPEG 서라운드의 Audio Object Type ID는 30을 할당하는 것을 일 실시예로 한다(Object Type ID 30). 그리고 상기 오브젝트를 위한 AudioSpecificConfig()는 SpatialSpecificConfig() 데이터와 sacPayloadEmbedding 플래그(flag)를 전송한다. 상기 sacPayloadEmbedding 플래그는 SpatialFrame() 페이로드가 ES로서 전송되는지, 아니면 다운믹스 데이터(downmix data)에 삽입되는지를 지시한다(The AudioSpecificConfig() for this object carries the SpatialSpecificConfig() data and a sacPayloadEmbedding flag that indicates whether the SpatialFrame() payload is conveyed as an elementary stream or embedded into the downmix data).Here, the ES for transmitting spatial audio data is identified by an Audio Object Type "MPEG Surround" (An elementary stream carrying spatial audio data is identified by the Audio Object Type "MPEG Surround"). At this time, the audio object type ID of MPEG surround is assigned as an embodiment (Object Type ID 30). And AudioSpecificConfig () for the object transmits SpatialSpecificConfig () data and sacPayloadEmbedding flag. The audioSpecificConfig () for this object carries the SpatialSpecificConfig () data and a sacPayloadEmbedding flag that indicates whether or not the SpatialFrame () payload is transmitted as ES or inserted into downmix data. the SpatialFrame () payload is conveyed as an elementary stream or embedded into the downmix data).

상기 AudioSpecificConfig()에서 SpatialSpecificConfig()에 대응되는 데이터는 DecoderConfigDescriptor에 실려서 전송된다. Data corresponding to SpatialSpecificConfig () in AudioSpecificConfig () is carried in DecoderConfigDescriptor and transmitted.

각 MPS ES는 SpatialFrame() 이라는 신택스에 의해 패킹(packing)되어 있으며, 이것은 SL -> PES -> TS 패킷화 과정을 거쳐 전송된다. 만일 도 4와 같이 MPS ES를 전송한다면 MPS ES의 ES_ID는 BSAC ES의 ES_ID와 다른 값을 갖는다.Each MPS ES is packed by a syntax called SpatialFrame (), which is transmitted through SL-> PES-> TS packetization. If the MPS ES is transmitted as shown in FIG. 4, the ES_ID of the MPS ES has a value different from that of the BSAC ES.

상기 SpatialFrame()의 사이즈가 너무 작아 효율적 TS trunk에 담기위해 super frame 구조를 사용할 수 있다. 이때 1개의 SL 패킷 내에 복수개의 MPS ES가 삽입될 수 있다면 super frame이라는 syntax는 별도 정의할 필요가 없다. 그리고 한 개의 MPS SL에 대응하는 BSAC ES가 여러 개일 수 있으며, 따라서 BSAC를 패킷화한 SL과 MPS를 패킷화한 SL의 개수가 일치하지 않을 수 있으나, 서로 배수 관계를 가질 수 있다.The size of the SpatialFrame () is so small that a super frame structure can be used for efficient TS trunk. At this time, if a plurality of MPS ES can be inserted in one SL packet, the syntax of super frame need not be defined separately. There may be several BSAC ESs corresponding to one MPS SL. Therefore, the number of SLs packetizing the BSAC and the SLs packetizing the MPS may not match, but may have a multiple relationship.

도 6 내지 도 24는 본 발명에 따른 멀티 채널 오디오 서비스를 지원하기 위한 AudioSpecificConfig() 구조의 예를 보이고 있다. 6 to 24 show examples of an AudioSpecificConfig () structure for supporting a multi-channel audio service according to the present invention.

이때 MPEG-4 BSAC의 Audio Object Type ID는 22이고, MPEG 서라운드의 Audio Object Type ID는 30인 것을 일 실시예로 한다. In this embodiment, the Audio Object Type ID of the MPEG-4 BSAC is 22 and the Audio Object Type ID of the MPEG Surround is 30.

또한 오디오에 대한 DecoderConfigDescriptor로 전송되는 것은 도 6 내지 도 24에서 정의된 것과 같은 AudioSpecificConfig() 이다. Also transmitted to DecoderConfigDescriptor for audio is AudioSpecificConfig () as defined in FIGS. 6 to 24.

여기서, ObjectType ID에 따라 BSAC에 대한 descriptor와 MPEG 서라운드(이하, MPS라 함)에 대한 descriptor로 구분된다. 도 6 내지 도 24에서 BSAC에 대한 DecoderConfigDescriptor 내에 존재하는 데이터 필드(data field)는 10으로 표시하고, MPS에 대한 DecoderConfigDescriptor 내에 존재하는 데이터 필드(data field)는 20으로 표시하며, 공통일 때는 30으로 표시한다.Here, it is divided into a descriptor for BSAC and a descriptor for MPEG surround (hereinafter referred to as MPS) according to the ObjectType ID. 6 to 24, the data field present in the DecoderConfigDescriptor for the BSAC is represented by 10, and the data field present in the DecoderConfigDescriptor for the MPS is represented by 20, and in common when represented by 30. do.

즉, ObjectType ID에 따라 BSAC인 경우는 GASpecificConfig()를, MPS인 경우는 SpatialSpecificConfig()를 호출하는 형태로 구분이 된다. That is, according to the ObjectType ID, it is classified into a type of calling GASpecificConfig () in case of BSAC and SpatialSpecificConfig () in case of MPS.

BSAC+SBR 혹은 BSAC+MPS를 하나의 ES에 조합(combine)해서 전송하는 경우는, AudioSpecificConfig()의 extensionAudioObjectType 관련한 내용을 통해 하나의 AudioSpecificConfig()를 통해 BSAC 및 SBR 혹은 MPS에 대한 descriptor 정보를 같이 전송할 수 있다. 이를 위해 사용되는 필드는 40으로 표시한다.In case of combining BSAC + SBR or BSAC + MPS to one ES, it transmits descriptor information about BSAC and SBR or MPS through one AudioSpecificConfig () through contents related to extensionAudioObjectType of AudioSpecificConfig (). Can be. The field used for this is indicated by 40.

이때 MPS에 대한 descriptor에서 samplingFrequencyIndex는 BSAC에 대한 descriptor와 다를 수 없다. MPS에 대한 descriptor에서 channelConfiguration은 의미 없다. MPS에 대한 descriptor에서 bsSamplingFrequencyIndex는 MPS 및 BSAC descriptor 상의 samplingFrequencyIndex와 다를 수 없다. 따라서 중복된 데이터로써, 어느 한쪽을 무시하도록 정의할 수 있다. MPS에 있는 bsFrameLength 값은 BSAC의 frame size인 1024 샘플의 배수를 가리키도록 구성되어야 한다. 이 정보를 이용하여 수퍼프레임 컨셉을 사용할 수 있다. 최대 8192 샘플을 1개의 MPS 프레임으로 정의할 수 있으며, 이는 8개의 BSAC 프레임에 대응이 된다. 이 필드를 이용하는 경우 실제는 수퍼 프레임이 아니라, 1개의 단일 MPS 프레임이 BSAC 여러 개에 대응되는 개념이다. 이때, 복수 개의 BSAC 프레임(ES)를 1개의 MPS 프레임에 대응시키기 위해서는 서로 간의 관계를 알려주는 식별자나 싱크 정보, 타이밍 정보 등이 필요할 수 있다. target app.을 위해 SpatialSpecificConfig()내의 여러 parameter들은 그 동작 범위를 제한할 수 있다. 예를 들어, 5.1 채널 초과의 멀티채널 모드는 지원하지 않기 위해 bsTreeConfig를 제한한다거나 bsArbitraryDownmix, bsMatrixMode, bs3DaudioMode 등을 특정 값으로 제약할 수 있다.At this time, the samplingFrequencyIndex in the descriptor for MPS cannot be different from the descriptor for BSAC. ChannelConfiguration in the descriptor for MPS is meaningless. The bsSamplingFrequencyIndex in the descriptor for the MPS cannot be different from the samplingFrequencyIndex on the MPS and BSAC descriptors. Therefore, as duplicated data, one can be defined to be ignored. The bsFrameLength value in the MPS should be configured to point to a multiple of 1024 samples, the frame size of the BSAC. You can use this information to use the superframe concept. Up to 8192 samples can be defined as one MPS frame, which corresponds to eight BSAC frames. When using this field, the actual concept is not a super frame, but a single MPS frame corresponds to multiple BSACs. In this case, in order to correspond to the plurality of BSAC frames (ES) to one MPS frame, an identifier, sync information, timing information, etc. indicating a relationship between each other may be required. Several parameters in SpatialSpecificConfig () can limit the scope of their operation for a target app. For example, bsTreeConfig can be restricted or bsArbitraryDownmix, bsMatrixMode, bs3DaudioMode, etc. can be limited to a specific value in order not to support multichannel mode of 5.1 channels or more.

도 6a 내지 도 6e는 본 발명에 따른 AudioSpecificConfig의 신택스 구조의 일 실시예를 보이고 있다. AudioSpecificConfig() extends the abstract class DecoderSpecificInfo, as defined in ISO/IEC 14496-1, when DecoderConfigDescriptor.objectTypeIndication refers to streams complying with ISO/IEC 14496-3 in this case the existence of AudioSpecificConfig() is mandatory.6A through 6E illustrate an embodiment of a syntax structure of an AudioSpecificConfig according to the present invention. AudioSpecificConfig () extends the abstract class DecoderSpecificInfo, as defined in ISO / IEC 14496-1, when DecoderConfigDescriptor.objectTypeIndication refers to streams complying with ISO / IEC 14496-3 in this case the existence of AudioSpecificConfig () is mandatory.

도 7은 본 발명에 따른 GetAudioObjectType() 신택스 구조의 일 실시예를 보이고 있다. 7 shows an embodiment of the GetAudioObjectType () syntax structure according to the present invention.

도 8a, 도 8b는 본 발명에 따른 GASpecificConfig() 신택스 구조의 일 실시예를 보이고 있다. 8A and 8B illustrate an embodiment of the GASpecificConfig () syntax structure according to the present invention.

도 9는 본 발명에 따른 audio object type ER BSAC의 톱 레벨 페이로드(top level payload)인 bsac_payload() 신택스 구조의 일 실시예를 보이고 있다. 9 illustrates an embodiment of a bsac_payload () syntax structure that is a top level payload of an audio object type ER BSAC according to the present invention.

도 10은 본 발명에 따른 bsac_lstep_element() 신택스 구조의 일 실시예를 보이고 있다. 10 shows an embodiment of a bsac_lstep_element () syntax structure according to the present invention.

도 11a, 도 11b는 본 발명에 따른 bsac_raw_data_block() 신택스 구조의 일 실시예를 보이고 있다. 11A and 11B illustrate an embodiment of a bsac_raw_data_block () syntax structure according to the present invention.

도 12는 본 발명에 따른 bsac_base_element() 신택스 구조의 일 실시예를 보이고 있다. 12 shows an embodiment of a bsac_base_element () syntax structure according to the present invention.

도 13은 본 발명에 따른 bsac_header() 신택스 구조의 일 실시예를 보이고 있다. 13 shows an embodiment of a bsac_header () syntax structure according to the present invention.

도 14는 본 발명에 따른 general_header() 신택스 구조의 일 실시예를 보이고 있다. 14 illustrates an embodiment of a general_header () syntax structure according to the present invention.

도 15는 본 발명에 따른 bsac_layer_element() 신택스 구조의 일 실시예를 보이고 있다. 15 shows an embodiment of a bsac_layer_element () syntax structure according to the present invention.

도 16은 본 발명에 따른 extended_bsac_raw_data_block() 신택스 구조의 일 실시예를 보이고 있다. 16 shows an embodiment of an extended_bsac_raw_data_block () syntax structure according to the present invention.

도 17은 본 발명에 따른 extended_bsac_base_element() 신택스 구조의 일 실시예를 보이고 있다. 17 shows an embodiment of an extended_bsac_base_element () syntax structure according to the present invention.

도 18은 본 발명에 따른 extended_bsac_sbr_data() 신택스 구조의 일 실시예를 보이고 있다. 18 shows an embodiment of an extended_bsac_sbr_data () syntax structure according to the present invention.

도 19는 본 발명에 따른 bsac_sbr_data() 신택스 구조의 일 실시예를 보이고 있다. 19 shows an embodiment of a bsac_sbr_data () syntax structure according to the present invention.

도 20은 본 발명에 따른 extended_bsac_data() 신택스 구조의 일 실시예를 보이고 있다. 20 shows an embodiment of an extended_bsac_data () syntax structure according to the present invention.

도 21은 본 발명에 따른 extended_bsac_sac_data() 신택스 구조의 일 실시예를 보이고 있다. 21 shows an embodiment of an extended_bsac_sac_data () syntax structure according to the present invention.

한편 본 발명에 따른 MPEG 서라운드는 SpatialSpecificConfig(), SpatialFrame()를 포함할 수 있다. Meanwhile, MPEG surround according to the present invention may include SpatialSpecificConfig () and SpatialFrame ().

도 22a, 도 22b는 본 발명에 따른 SpatialSpecificConfig() 신택스 구조의 일 실시예를 보이고 있다. 22A and 22B illustrate an embodiment of a SpatialSpecificConfig () syntax structure according to the present invention.

도 23은 본 발명에 따른 SpatialFrame() 신택스 구조의 일 실시예를 보이고 있다.23 illustrates an embodiment of a SpatialFrame () syntax structure according to the present invention.

도 24는 본 발명에 따른 FramingInfo() 신택스 구조의 일 실시예를 보이고 있다.24 shows an embodiment of the FramingInfo () syntax structure according to the present invention.

도 25는 본 발명에 따른 멀티 채널 오디오 데이터를 수신하여 출력하기 위한 수신 시스템의 일 실시예를 보이고 있다.25 shows an embodiment of a receiving system for receiving and outputting multi-channel audio data according to the present invention.

도 25는 DAB 시스템, 디인터리버, RS 디코더, TS 디먹스, SL 디패킷타이저, 비디오 디코더, BSAC 파서, MPEG 서라운드 파서, OD/BIFS 디코더, IOD 파서, BSAC 디코더, 및 멀티 채널 오디오 디코더를 포함할 수 있다. 만일 수신 시스템이 기존 의 지상파 DMB 수신기이면, BSAC 오디오 데이터만 디코딩할 수 있다.25 includes a DAB system, deinterleaver, RS decoder, TS demux, SL depacketizer, video decoder, BSAC parser, MPEG surround parser, OD / BIFS decoder, IOD parser, BSAC decoder, and multichannel audio decoder can do. If the receiving system is a conventional terrestrial DMB receiver, only BSAC audio data can be decoded.

상기 DAB 시스템은 튜너, 베이스밴드 신호 처리부를 포함할 수 있다(도시되지 않음). 상기 베이스밴드 신호 처리부는 아날로그/디지털(A/D) 변환기, 동기화부(synchronizer), OFDM 복조기, 디인터리버, 비터비 디코더, 및 오디오 디코더를 포함할 수 있다(도시되지 않음). 상기 베이스밴드 신호 처리부 내 오디오 디코더는 기존 DAB 오디오 데이터를 디코딩하여 출력한다. 일 예로 상기 오디오 디코더는 DAB 오디오 신호를 MUSICAM(Masking pattern adapted universal sub-band integrated coding and multiplexing) 방식으로 디코딩하여 출력한다. The DAB system may include a tuner and a baseband signal processor (not shown). The baseband signal processing unit may include an analog / digital (A / D) converter, a synchronizer, an OFDM demodulator, a deinterleaver, a Viterbi decoder, and an audio decoder (not shown). The audio decoder in the baseband signal processor decodes and outputs existing DAB audio data. For example, the audio decoder decodes and outputs a DAB audio signal by a masking pattern adapted universal sub-band integrated coding and multiplexing (MUSCAM) scheme.

상기 DAB 시스템에서 처리된 데이터가 스트림 모드로 전송된 데이터이면, 데이터 스트림은 도 25의 디인터리버로 출력되어 디인터리빙된 후 RS 디코더로 출력된다. If the data processed in the DAB system is the data transmitted in the stream mode, the data stream is output to the deinterleaver of FIG. 25, deinterleaved, and then output to the RS decoder.

상기 RS 디코더는 데이터 스트림에 대해 추가의 오류 정정을 수행한 후 TS 디먹스로 출력한다. 상기 TS 디먹스는 오류 정정된 데이터 스트림에 대해 트랜스포트 스트림 디패킷타이징(Depacketizing), PES(Packetized Element Stream) 디패킷타이징을 수행하여 SL 디패킷타이저로 출력한다. 상기 SL 디패킷타이저는 PES 디패킷타이징된 데이터에 대해 SL(Sync Layer) 디패킷타이징을 수행하여 비디오 ES, BSAC 오디오 ES, MPEG 서라운드 오디오 ES, OD/BIFS, IOD, JPEG ES 중 하나로 구분한다. 즉, 수신 시스템에서 멀티 채널 오디오 신호를 수신하여 올바르게 출력하기 위해서는 먼저 SL 디패킷타이저에서 MPEG 서라운드 데이터와 메인 오디오 데이터(즉, BSAC 오디오 데이터)를 구분한다.The RS decoder performs additional error correction on the data stream and outputs the TS demux. The TS demux performs transport stream depacketizing and packetized element stream (PES) depacketizing on the error corrected data stream and outputs the depacketizer to the SL depacketizer. The SL depacketizer performs SL (Sync Layer) depacketization on PES depacketized data and divides it into one of video ES, BSAC audio ES, MPEG surround audio ES, OD / BIFS, IOD, and JPEG ES. do. That is, in order to receive and correctly output a multi-channel audio signal in a receiving system, the SL depacketizer first distinguishes MPEG surround data from main audio data (ie, BSAC audio data).

상기 비디오 ES는 비디오 디코더 출력되고, BSAC 오디오 ES는 BSAC 파서로 출력된다. 상기 MPEG 서라운드 오디오 ES는 MPEG 서라운드 파서로 출력되고, OD/BIFS는 OD/BIFS 디코더로 출력되며, 상기 IOD는 IOD 파서로 출력된다.The video ES is output to a video decoder and the BSAC audio ES is output to a BSAC parser. The MPEG surround audio ES is output to an MPEG surround parser, OD / BIFS is output to an OD / BIFS decoder, and the IOD is output to an IOD parser.

상기 BSAC 파서는 BSAC 오디오 데이터를 추출하고, MPEG 서라운드 파서는 MPEG 서라운드 오디오 데이터를 추출한다. 상기 BSAC 파서에서 추출된 BSAC 오디오 데이터는 BSAC 디코더와 멀티 채널 오디오 디코더로 출력된다. 상기 MPEG 서라운드 파서에서 추출된 MPEG 서라운드 오디오 데이터는 멀티 채널 오디오 디코더로 출력된다. 상기 멀티 채널 오디오 디코더는 MPEG 서라운드 오디오 데이터의 디코딩을 수행한다. 또한 상기 멀티 채널 오디오 디코더는 BSAC와 MPEG 서라운드가 조합된 오디오 데이터를 디코딩한다. The BSAC parser extracts BSAC audio data, and the MPEG surround parser extracts MPEG surround audio data. BSAC audio data extracted by the BSAC parser is output to a BSAC decoder and a multi-channel audio decoder. MPEG surround audio data extracted by the MPEG surround parser is output to a multi-channel audio decoder. The multi-channel audio decoder performs decoding of MPEG surround audio data. The multi-channel audio decoder also decodes audio data combining BSAC and MPEG surround.

도 26, 도 27을 참조하여 HE-AAC v2 및 MPEG 서라운드로 구성된 5.1 채널 오디오 서비스를 위한 데이터 파싱 과정을 설명한다.A data parsing process for a 5.1 channel audio service including HE-AAC v2 and MPEG surround will be described with reference to FIGS. 26 and 27.

즉, 송신측에서는 MPEG-2 TS의 PAT(Program Association Table)와 MPEG-4 시스템 표준의 초기 객체 서술자(Initial Object Descriptor ; IOD)를 다중화 스트림 내에 전송한다. 이때 상기 IOD는 MPEG-2 TS의 PMT(Program Map Table)에 포함된다.That is, the transmitting side transmits an MPEG-2 TS PAT (Program Association Table) and an Initial Object Descriptor (IOD) of the MPEG-4 system standard in a multiplexed stream. In this case, the IOD is included in a program map table (PMT) of the MPEG-2 TS.

상기 PAT는 프로그램의 정보를 담고 있는 TS 패킷의 PID 정보를 제공한다. 상기 PAT는 PID=0x00인 패킷에 의해 전송되는 특수 정보로서, 각 프로그램 번호마다 그 프로그램의 구성 요소를 기술하며, 프로그램 맵 테이블(PMT)을 전송하는 트랜스포트 패킷의 PID를 가리킨다.The PAT provides PID information of a TS packet containing information of a program. The PAT is special information transmitted by a packet of PID = 0x00. Each PAT describes a component of the program, and indicates a PID of a transport packet that transmits a program map table (PMT).

즉, PID가 0x00인 TS 패킷의 페이로드를 파싱하여 프로그램 번호(Program number)와 PMT의 PID를 알아낸다. That is, a program number and a PID of a PMT are found by parsing the payload of a TS packet having a PID of 0x00.

상기 PAT로부터 얻어낸 PMT는 프로그램을 구성하는 구성 요소들간의 상관 관계를 제공한다. 이때 지상파 DMB는 MPEG-4 콘텐츠가 전송되기 때문에, IOD가 PMT에 포함된다. 따라서 상기 PMT 내에 포함된 IOD descriptor 정보를 추출한다. 그리고 추출된 IOD descriptor에 포함된 해당 ES Descriptor의 ES_ID와 SL Descriptor의 ES_ID의 매핑(mapping)을 통해 각 ES에 대한 PID를 검색한다.The PMT obtained from the PAT provides a correlation between the components constituting the program. In this case, since terrestrial DMB is transmitted with MPEG-4 content, IOD is included in PMT. Therefore, IOD descriptor information included in the PMT is extracted. The PID for each ES is searched by mapping the ES_ID of the corresponding ES Descriptor and the ES_ID of the SL Descriptor included in the extracted IOD descriptor.

각 ES descriptor에는 오디오 스트림의 경우 오디오의 코딩 특성 (프로파일 등)에 대한 정보를 포함하는 DecoderConfigDescriptor가 전송된다. 이때, DecoderConfigDescriptor는 메인 채널 코덱 및 서브 채널 코덱에 대한 정보가 해당하는 ES(또는 SL)에 대해 별도로 정의된다.In the case of an audio stream, a DecoderConfigDescriptor including information on coding characteristics (profile, etc.) of audio is transmitted to each ES descriptor. At this time, DecoderConfigDescriptor is separately defined for the ES (or SL) corresponding to the information about the main channel codec and sub-channel codec.

즉, MPEG-4로 압축 부호화된 멀티미디어를 MPEG-2 TS로 패킷화할 때, 상기된 PMT 신택스에 MPEG-4에서 정의된 IOD와 SL(Sync Layer) descriptor가 포함된다. 이때, 첫 번째 루프의 descriptor()영역에 IOD descriptor가 포함되고, 두번째 루프의 descriptor()영역에 SL descriptor가 포함된다.That is, when packetizing MPEG-4 compressed and encoded multimedia into MPEG-2 TS, the above-described PMT syntax includes IOD and SL (Sync Layer) descriptor defined in MPEG-4. At this time, the IOD descriptor is included in the descriptor () region of the first loop, and the SL descriptor is included in the descriptor () region of the second loop.

상기 IOD는 도 27에서 보는 것처럼, 전송되는 MPEG-4 콘텐츠의 프로파일(profile)과 레벨(level) 정보를 알려준다. 또한 OD 스트림의 ES(Elementary Stream) ID와 SD(Scene Description) 스트림의 ES ID 정보를 포함한다.As shown in FIG. 27, the IOD informs profile and level information of the transmitted MPEG-4 content. It also includes the ES (Elementary Stream) ID of the OD stream and the ES ID information of the Scene Description (SD) stream.

즉, IOD의 ES_descriptor 필드에 OD 스트림에 관한 정보와 SD 스트림에 관한 정보가 기술되어 있다. 상기 IOD는 SD의 BIFS와 OD를 연결시키는 포인터 역할을 한다. That is, information about the OD stream and information about the SD stream is described in the ES_descriptor field of the IOD. The IOD serves as a pointer connecting the BIFS and the OD of the SD.

따라서 상기 IOD를 해석하면 장면 기술에 관한 정보와 각각 오브젝트에 관한 정보를 전송하는 논리적 채널(ES_ID)을 얻을 수 있다. 이 후 각각의 논리적 채널에 접근해서 장면을 구성하고, 각각 오브젝트에 관한 정보를 얻은 후에 음향 혹은 영상에 관한 논리적 채널을 얻을 수 있다.Therefore, by analyzing the IOD, a logical channel (ES_ID) for transmitting information about scene description and information about each object can be obtained. Each logical channel can then be accessed to compose a scene, and after obtaining information about the object, the logical channel for sound or video can be obtained.

또한 상기 PMT의 두 번째 루프에는 SL에서 패킷화된 스트림(packetized stream)이 PES(Packetized Elementary Stream) 타입으로 전송되는지 섹션 타입으로 전송되는지 구분할 수 있는 stream_type 필드와 각 스트림의 PID(elementary_PID) 필드, 그리고 해당 PID의 ES ID 정보를 포함하고 있다. 따라서 PMT 정보를 해석하면 TS로 전송되는 모든 프로그램의 정보를 얻을 수 있다. In addition, the second loop of the PMT includes a stream_type field for identifying whether a packetized stream is transmitted in a packetized elementary stream (PES) type or a section type in an SL, a PID (elementary_PID) field of each stream, and Contains the ES ID information of the PID. Therefore, when the PMT information is interpreted, the information of all the programs transmitted to the TS can be obtained.

그리고 검색된 ES에 대한 PID를 이용하여 메인 오디오 및 서브채널 오디오를 포함하는 MPEG-4 SL을 추출한다. 각 SL은 SL 디패킷타이저를 거쳐서 각각의 디코더로 전송된다.Then, the MPEG-4 SL including the main audio and the subchannel audio is extracted using the PID of the retrieved ES. Each SL is sent to each decoder via an SL depacketizer.

즉, 각 OD는 ES descriptor를 포함하고, 상기 ES descriptor는 ES_ID 필드와 DecoderConfigDescriptor 필드를 포함한다. 상기 DecoderConfigDescriptor 필드는 전송되는 스트림의 종류를 표시한 stream type 필드, 오브젝트의 타입을 알 수 있는 objectTypeIndication 필드, 그리고 각 스트림에 대한 디코딩 정보를 알 수 있는 Decoderspecific info 필드를 포함한다. That is, each OD includes an ES descriptor, and the ES descriptor includes an ES_ID field and a DecoderConfigDescriptor field. The DecoderConfigDescriptor field includes a stream type field indicating a type of a stream to be transmitted, an objectTypeIndication field indicating an object type, and a Decoderspecific info field identifying decoding information about each stream.

일 예로, 스트림 타입 필드 값이 0x1C이면 MPEG 서라운드 오디오 스트림을 나타낸다. For example, if the stream type field value is 0x1C, this indicates an MPEG surround audio stream.

따라서 본 발명에 따른 수신 시스템은 stream type(예, 0x1C)의 ES_ID, PID 를 순차적으로 파싱하여 기본 BSAC 데이터와 함께 처리되어(MUX) 확장된 음질의 MPEG 서라운드 음향을 즐길수 있게 된다.Accordingly, the reception system according to the present invention parses the ES_ID and the PID of the stream type (eg, 0x1C) sequentially and processes them together with the basic BSAC data (MUX) to enjoy the extended MPEG surround sound.

다음은 본 발명에 따른 NewConfigDescriptor() 신택스 구조의 예를 보인다.The following shows an example of the NewConfigDescriptor () syntax structure according to the present invention.

NewConfigDescriptor()NewConfigDescriptor ()

{{

bsAudioContentsTypeInfo;bsAudioContentsTypeInfo;

bsAudioContentsTypeExtensionInfo;bsAudioContentsTypeExtensionInfo;

bsRenderingGuideInfo;bsRenderingGuideInfo;

bsDownmixMode;bsDownmixMode;

}}

bsAudioContentsTypeInfo는 전송되는 오디오 콘텐츠(audio contents)의 타입(type)을 알려주는 것으로, 예를 들어, news, drama, movie, sports, music 등의 장르를 구별해주거나, bsAudioContetnsTypeExtensionInfo 와 결합하여, music에서 classic, rock, concert, choir, jazz, pop, ...으로 세부적으로 구별하여 정보를 알려준다. bsAudioContentsTypeInfo indicates the type of audio contents to be transmitted. For example, it distinguishes genres such as news, drama, movie, sports, music, or in combination with bsAudioContetnsTypeExtensionInfo. Tell the details by rock, concert, choir, jazz, pop, ...

상기 멀티 채널 오디오 디코더에서는 이와 같은 정보를 활용하여, 5.1 채널 디코딩된 신호의 적절한 재분배뿐 아니라, 적절한 음색 제어를 할 수 있다. 또한, 이 정보를 EPG나 OSD를 통해 유저에게 정보를 알려주는데 사용할 수 있다.The multi-channel audio decoder may utilize such information to perform proper tone control as well as proper redistribution of the 5.1 channel decoded signal. This information can also be used to inform the user via EPG or OSD.

bsRenderingGuideInfo는 전송된 멀티 채널 콘텐츠(multichannel contents)를 binaural rendering을 하거나, 자동차 환경과 같이 4.0 채널로 downmix를 해야할 때, 혹은 스테레오(stereo)로 다운믹스(downmix)할 때 바람직한 모드를 디코더에 알려주는 역할을 한다. 유사하게 bsDownmixMode 가 전송될 수 있다. bsRenderingGuideInfo informs the decoder of the desired mode when binaural rendering the transmitted multichannel contents, downmixing to 4.0 channels, such as in a car environment, or downmixing to stereo. Do it. Similarly, bsDownmixMode may be transmitted.

이는 MPS를 사용하는 환경이 차량인 점을 고려할 때 유용한 정보가 된다. 5.1 채널을 4.0 채널로 매핑하는 configuration 정보나, downmix 과정에 필요한 gain term 등을 이와 같은 필드를 통해 전송해줄 수 있다. This is useful information considering that the environment using the MPS is a vehicle. Configuration information for mapping a 5.1 channel to a 4.0 channel or a gain term necessary for a downmix process can be transmitted through such a field.

예를 들어, E.g,

bsDownmixMode = 0 이면,If bsDownmixMode = 0,

Lout = L * 1.0 + C * 0.5 + LFE * 0.5Lout = L * 1.0 + C * 0.5 + LFE * 0.5

Rout= C * 0.5 + R * 1.0 + LFE * 0.5Rout = C * 0.5 + R * 1.0 + LFE * 0.5

Lsout = Ls * 1.0Lsout = Ls * 1.0

Rsout = Rs * 1.0Rsout = Rs * 1.0

bsDownmixMode = 1 이면,If bsDownmixMode = 1,

Lout = L * 0.7 + C * 0.7 + LFE * 0.7Lout = L * 0.7 + C * 0.7 + LFE * 0.7

Rout= C * 0.7 + R * 0,7 + LFE * 0.7Rout = C * 0.7 + R * 0,7 + LFE * 0.7

Lsout = L * 0.2 + Ls * 0.9Lsout = L * 0.2 + Ls * 0.9

Rsout = R * 0.2 + Rs * 0.9Rsout = R * 0.2 + Rs * 0.9

와 같이 서로 다른 gain으로 downmix 하게 하는 것이 실시 예이다.As an example, downmixing with different gains is an example.

도 1은 본 발명에 따른 지상파 DMB 패킷 구조에 대한 일 실시예를 보인 도면1 is a diagram showing an embodiment of a terrestrial DMB packet structure according to the present invention;

도 2는 본 발명에 따른 stream type 값의 예를 보인 도면2 shows an example of a stream type value according to the present invention;

도 3 내지 도 5는 본 발명에 따른 멀티 채널 오디오 데이터를 MPEG SL에 패킷화하는 방법의 실시예들을 보인 도면3 to 5 illustrate embodiments of a method for packetizing multi-channel audio data in MPEG SL according to the present invention.

도 6a 내지 도 6e는 본 발명에 따른 AudioSpecificConfig의 신택스 구조의 일 실시예를 보인 도면6A-6E illustrate one embodiment of a syntax structure of an AudioSpecificConfig according to the present invention.

도 7은 본 발명에 따른 GetAudioObjectType() 신택스 구조의 일 실시예를 보인 도면7 illustrates an embodiment of a GetAudioObjectType () syntax structure according to the present invention.

도 8a, 도 8b는 본 발명에 따른 GASpecificConfig() 신택스 구조의 일 실시예를 보인 도면8A and 8B illustrate an embodiment of a GASpecificConfig () syntax structure in accordance with the present invention.

도 9는 본 발명에 따른 audio object type ER BSAC의 톱 레벨 페이로드(top level payload)인 bsac_payload() 신택스 구조의 일 실시예를 보인 도면9 illustrates an embodiment of a bsac_payload () syntax structure that is a top level payload of an audio object type ER BSAC according to the present invention.

도 10은 본 발명에 따른 bsac_lstep_element() 신택스 구조의 일 실시예를 보인 도면10 illustrates an embodiment of a bsac_lstep_element () syntax structure according to the present invention.

도 11a, 도 11b는 본 발명에 따른 bsac_raw_data_block() 신택스 구조의 일 실시예를 보인 도면11A and 11B illustrate an embodiment of a bsac_raw_data_block () syntax structure according to the present invention.

도 12는 본 발명에 따른 bsac_base_element() 신택스 구조의 일 실시예를 보인 도면12 illustrates an embodiment of a bsac_base_element () syntax structure according to the present invention.

도 13은 본 발명에 따른 bsac_header() 신택스 구조의 일 실시예를 보인 도면13 is a diagram illustrating an embodiment of a bsac_header () syntax structure according to the present invention.

도 14는 본 발명에 따른 general_header() 신택스 구조의 일 실시예를 보인 도면14 illustrates an embodiment of a general_header () syntax structure according to the present invention.

도 15는 본 발명에 따른 bsac_layer_element() 신택스 구조의 일 실시예를 보인 도면15 illustrates an embodiment of a bsac_layer_element () syntax structure according to the present invention.

도 16은 본 발명에 따른 extended_bsac_raw_data_block() 신택스 구조의 일 실시예를 보인 도면16 is a diagram illustrating an embodiment of an extended_bsac_raw_data_block () syntax structure according to the present invention.

도 17은 본 발명에 따른 extended_bsac_base_element() 신택스 구조의 일 실시예를 보인 도면17 illustrates an embodiment of an extended_bsac_base_element () syntax structure according to the present invention.

도 18은 본 발명에 따른 extended_bsac_sbr_data() 신택스 구조의 일 실시예를 보인 도면18 is a diagram illustrating an embodiment of an extended_bsac_sbr_data () syntax structure according to the present invention.

도 19는 본 발명에 따른 bsac_sbr_data() 신택스 구조의 일 실시예를 보인 도면19 illustrates an embodiment of a bsac_sbr_data () syntax structure according to the present invention.

도 20은 본 발명에 따른 extended_bsac_data() 신택스 구조의 일 실시예를 보인 도면20 illustrates an embodiment of an extended_bsac_data () syntax structure according to the present invention.

도 21은 본 발명에 따른 extended_bsac_sac_data() 신택스 구조의 일 실시예를 보인 도면21 illustrates an embodiment of an extended_bsac_sac_data () syntax structure according to the present invention.

도 22a, 도 22b는 본 발명에 따른 SpatialSpecificConfig() 신택스 구조의 일 실시예를 보인 도면22A and 22B illustrate an embodiment of a SpatialSpecificConfig () syntax structure according to the present invention.

도 23은 본 발명에 따른 SpatialFrame() 신택스 구조의 일 실시예를 보인 도면FIG. 23 illustrates an embodiment of a SpatialFrame () syntax structure according to the present invention. FIG.

도 24는 본 발명에 따른 FramingInfo() 신택스 구조의 일 실시예를 보인 도면24 illustrates an embodiment of the FramingInfo () syntax structure according to the present invention.

도 25는 본 발명에 따른 멀티 채널 오디오 데이터를 수신하여 출력하기 위한 수신 시스템의 일 실시예를 보인 구성 블록도25 is a block diagram showing an embodiment of a receiving system for receiving and outputting multi-channel audio data according to the present invention;

도 26, 도 27은 본 발명에 따른 시스템 정보 테이블을 파싱하는 과정을 보인 도면26 and 27 illustrate a process of parsing a system information table according to the present invention.

Claims (3)

멀티 채널 오디오 데이터를 포함하는 이동형 방송 신호를 수신하는 단계;Receiving a mobile broadcast signal including multi-channel audio data; 상기 이동형 방송 신호에 포함된 식별 정보를 이용하여 멀티 채널 오디오 데이터를 추출하는 단계; 및Extracting multi-channel audio data using identification information included in the mobile broadcast signal; And 상기 추출된 멀티 채널 오디오 데이터를 디코딩하여 출력하는 단계를 포함하는 것을 특징으로 하는 오디오 데이터 처리 방법.And decoding and outputting the extracted multi-channel audio data. 제 1 항에 있어서, The method of claim 1, 상기 멀티 채널 오디오 데이터를 식별할 수 있는 식별 정보는 오브젝트 디스크립터(OD)에 포함되는 것을 특징으로 하는 오디오 데이터 처리 방법.Identification information for identifying the multi-channel audio data is included in an object descriptor (OD). 제 1 항에 있어서, The method of claim 1, 상기 식별 정보는 요소 스트림의 종류를 구분할 수 있는 스트림 타입 정보인 것을 특징으로 하는 오디오 데이터 처리 방법.And the identification information is stream type information capable of classifying elementary stream types.
KR1020070122307A 2007-11-28 2007-11-28 broadcasting system and method of processing audio data KR101435815B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070122307A KR101435815B1 (en) 2007-11-28 2007-11-28 broadcasting system and method of processing audio data
EP08170248A EP2093911A3 (en) 2007-11-28 2008-11-28 Receiving system and audio data processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070122307A KR101435815B1 (en) 2007-11-28 2007-11-28 broadcasting system and method of processing audio data

Publications (2)

Publication Number Publication Date
KR20090055399A true KR20090055399A (en) 2009-06-02
KR101435815B1 KR101435815B1 (en) 2014-08-29

Family

ID=40987068

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070122307A KR101435815B1 (en) 2007-11-28 2007-11-28 broadcasting system and method of processing audio data

Country Status (1)

Country Link
KR (1) KR101435815B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014058275A1 (en) * 2012-10-11 2014-04-17 한국전자통신연구원 Device and method for generating audio data, and device and method for playing audio data
US9836269B2 (en) 2012-10-11 2017-12-05 Electronics And Telecommunications Research Institute Device and method for generating audio data, and device and method for playing audio data

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100773539B1 (en) * 2004-07-14 2007-11-05 삼성전자주식회사 Multi channel audio data encoding/decoding method and apparatus
KR100658222B1 (en) * 2004-08-09 2006-12-15 한국전자통신연구원 3 Dimension Digital Multimedia Broadcasting System
KR20070090684A (en) * 2006-03-03 2007-09-06 엘지전자 주식회사 Digital broadcast signal and method and apparatus of processing the digital broadcast signal

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014058275A1 (en) * 2012-10-11 2014-04-17 한국전자통신연구원 Device and method for generating audio data, and device and method for playing audio data
US9836269B2 (en) 2012-10-11 2017-12-05 Electronics And Telecommunications Research Institute Device and method for generating audio data, and device and method for playing audio data
US10282160B2 (en) 2012-10-11 2019-05-07 Electronics And Telecommunications Research Institute Apparatus and method for generating audio data, and apparatus and method for playing audio data

Also Published As

Publication number Publication date
KR101435815B1 (en) 2014-08-29

Similar Documents

Publication Publication Date Title
KR100587324B1 (en) Method for servicing digital multimedia broadcasting, transmitter/receiver, and data structure
RU2700405C2 (en) Data transmission device, data transmission method, receiving device and reception method
KR100531378B1 (en) Method for transmitting information in mobile TV service
JP7238925B2 (en) Transmitting device, transmitting method, receiving device and receiving method
US11871078B2 (en) Transmission method, reception apparatus and reception method for transmitting a plurality of types of audio data items
KR20090115074A (en) Method and apparatus for transmitting/receiving multi channel audio signal using super frame
US11523154B2 (en) Transmission device, transmission method, reception device, and reception method
EP2093911A2 (en) Receiving system and audio data processing method thereof
KR101435815B1 (en) broadcasting system and method of processing audio data
KR20040084508A (en) Apparatus and Its Method of Multiplexing Multimedia Data to DAB Data
KR101531510B1 (en) Receiving system and method of processing audio data
KR100755839B1 (en) Broadcasting system and method for supporting sound multiplex
US20130191133A1 (en) Apparatus for audio data processing and method therefor
KR101325802B1 (en) Digital Broadcasting Transmitter, Digital Broadcasting Receiver and System and Method for Serving Digital Broadcasting
KR101435826B1 (en) Method of processing broadcast signal of broadcasting receiver
KR20090082805A (en) The method of digital broadcasting, the encoder and decoder for it, and the receiver including the decoder

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
LAPS Lapse due to unpaid annual fee