KR101531510B1 - 수신 시스템 및 오디오 데이터 처리 방법 - Google Patents

수신 시스템 및 오디오 데이터 처리 방법 Download PDF

Info

Publication number
KR101531510B1
KR101531510B1 KR1020080119041A KR20080119041A KR101531510B1 KR 101531510 B1 KR101531510 B1 KR 101531510B1 KR 1020080119041 A KR1020080119041 A KR 1020080119041A KR 20080119041 A KR20080119041 A KR 20080119041A KR 101531510 B1 KR101531510 B1 KR 101531510B1
Authority
KR
South Korea
Prior art keywords
audio signal
audio
information
channel
signal
Prior art date
Application number
KR1020080119041A
Other languages
English (en)
Other versions
KR20100060449A (ko
Inventor
서종열
오현오
김봉면
송재형
김진필
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020080119041A priority Critical patent/KR101531510B1/ko
Priority to EP08170248A priority patent/EP2093911A3/en
Publication of KR20100060449A publication Critical patent/KR20100060449A/ko
Application granted granted Critical
Publication of KR101531510B1 publication Critical patent/KR101531510B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4343Extraction or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H2201/00Aspects of broadcast communication
    • H04H2201/10Aspects of broadcast communication characterised by the type of broadcast system
    • H04H2201/11Aspects of broadcast communication characterised by the type of broadcast system digital multimedia broadcasting [DMB]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

이동형 방송 신호 특히, 지상파 DMB를 송수신할 수 있는 방송 시스템 및 오디오 데이터 처리 방법이 개시된다. 특히 본 발명의 수신 시스템은 지상파 DMB에서 멀티 채널 오디오 서비스를 가능하게 함으로써, 이동 방송을 통해 보다 고음질 서비스를 시청자에게 제공할 수 있도록 한다.
멀티 채널, 오디오, DMB

Description

수신 시스템 및 오디오 데이터 처리 방법{Receiving system and method of processing audio data}
본 발명은 방송 시스템에 관한 것으로서, 더욱 상세하게는 멀티 채널 오디오 서비스를 지원하기 위한 이동형 방송 시스템 및 오디오 데이터 처리 방법에 관한 것이다.
고품질의 음성 및 영상 서비스를 언제 어디서나 제공할 수 있는 이동형 방송 중 디지털 멀티미디어 방송(Digital Multimedia Broadcasting ; DMB)은 듣는 방송에서 보고 듣는 방송으로 진화하였다. 그리고 뛰어난 이동수신 특성을 바탕으로 음악, 문자, 동영상 등 다양한 콘텐츠를 휴대폰, PDA 등 휴대용 단말을 통해 전달함으로써, 고화질, 고음질을 추구하는 디지털 지상파 TV 방송과 보완적인 관계를 구축한다.
상기 DMB는 유럽의 지상파 라디오 표준으로 채택된 Eureka-147 디지털 오디오 방송(Digital Audio Broadcasting : DAB)에 기반하고 있다. 즉, 상기 Eureka-147은 디지털 오디오 방송(DAB)을 위하여 창안되었으나 2MHz의 좁은 주파수 대역폭을 이용하여 작은 화면 크기의 동영상을 서비스하는 지상파 DMB의 기반 기술로도 사용되고 있다.
또한 DMB는 MPEG-4 방식의 데이터 전송 외에도 TPEG, BWS(Broadcast Website) 등 다른 형태들의 데이터 전송이 가능하여, 이동 수신의 멀티미디어 방송을 지원할 수 있다. 이런 점은 DMB 수신기 자체 뿐 아니라 PDA, 포터블 DVD, 모바일 폰 등 기존 모바일 기기에 많이 응용할 수 있다는 점에서 그 산업적 파급 효과가 매우 크다 할 수 있다. 상기 MPEG-4 방식은 콘텐츠(contents)에 기반한 영상 표현 방법을 사용하며, 화면을 모양 정보, 움직임 정보, 질감 정보라는 속성을 가지는 비디오 오브젝트들로 분리하여 처리한다. 콘텐츠 기반 영상표현 방법은 다양한 멀티미디어 응용에서 오브젝트 사이의 상호 관계를 정립하여 이들의 접근과 조작을 쉽게 한다. 다시 말해, MPEG-4에서의 오브젝트 지향 대화형 기능은 멀티미디어 데이터 액세스에 있어서 화면이나 음향의 오브젝트 요소들을 독립적으로 취급하면서 이들을 서로 링크에 의해 결합해 사용자가 화면이나 음향을 자유로이 구성할 수 있도록 한다. 예를 들어, 화면에서 배경을 그대로 둔 채 주인공만을 교체하는 등의 처리가 이전까지는 프로덕션 단계에서만 가능했으나 MPEG-4에서는 사용자 단계에서 가능해진다.
본 발명의 목적은 지상파 DMB에서 멀티 채널 오디오(Multi-channel audio) 서비스를 지원하기 위한 수신 시스템 및 오디오 데이터 처리 방법을 제공함에 있다.
본 발명의 다른 목적은 BSAC 오디오 신호와 MPEG 서라운드(surround) 오디오 신호를 수신하여 멀티 채널 오디오 서비스를 지원하기 위한 수신 시스템 및 오디오 데이터 처리 방법을 제공함에 있다.
상기와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 수신 시스템은 수신부, 디패킷타이징부, 및 멀티 채널 오디오 디코더를 포함할 수 있다. 상기 수신부는 제1 오디오 신호, 멀티 채널을 위한 제2 오디오 신호, 및 시스템 정보를 포함하는 이동 방송 신호를 수신한다. 상기 디패킷타이징부는 상기 수신부로 수신된 이동 방송 신호에 포함된 제1 오디오 신호와 제2 오디오 신호를 각 오디오 신호에 할당된 식별 정보를 참조하여 구분한다. 상기 멀티 채널 오디오 디코더는 입력되는 오디오 코덱 정보를 기초로 상기 디패킷타이징부에서 구분되어 출력되는 제1 오디오 신호를 복호하고, 복호된 제1 오디오 신호와 오디오 코덱 정보를 기초로 상기 디패킷타이징부에서 구분되어 출력되는 제2 오디오 신호를 복호하여 멀티 채널 오디오 신호를 복원한다.
본 발명에 따른 수신 시스템은 상기 수신부로 수신된 이동 방송 신호에 포함 된 시스템 정보로부터 제1 오디오 신호와 제2 오디오 신호를 식별하기 위한 식별 정보를 추출하여 상기 디패킷타이징부로 출력하고, 제1 오디오 신호와 제2 오디오 신호의 복호를 위한 오디오 코덱 정보를 추출하여 상기 멀티 채널 오디오 디코더로 출력하는 시스템 정보 처리부를 더 포함할 수 있다.
상기 제1 오디오 신호는 BSAC 오디오 신호이고, 제2 오디오 신호는 MPEG 서라운드 오디오 신호이다.
본 발명의 일 실시예에 따른 수신 시스템의 데이터 처리 방법은, 제1 오디오 신호, 멀티 채널을 위한 제2 오디오 신호, 및 시스템 정보를 포함하는 이동 방송 신호를 수신하는 단계; 상기 수신된 이동 방송 신호에 포함된 제1 오디오 신호와 제2 오디오 신호를 각 오디오 신호에 할당된 식별 정보를 참조하여 구분하는 단계; 및 입력되는 오디오 코덱 정보를 기초로 상기 디패킷타이징 단계에서 구분된 제1 오디오 신호를 복호하고, 복호된 제1 오디오 신호와 오디오 코덱 정보를 기초로 상기 디패킷타이징 단계에서 구분된 제2 오디오 신호를 복호하여 멀티 채널 오디오 신호를 복원하는 단계를 포함할 수 있다.
본 발명에 따른 수신 시스템의 데이터 처리 방법은 상기 수신된 이동 방송 신호에 포함된 시스템 정보로부터 제1 오디오 신호와 제2 오디오 신호를 식별하기 위한 식별 정보를 추출하여 상기 디패킷타이징 단계로 제공하고, 제1 오디오 신호와 제2 오디오 신호의 복호를 위한 오디오 코덱 정보를 추출하여 상기 멀티 채널 오디오 복호 단계로 출력하는 단계를 더 포함할 수 있다.
본 발명에 따른 방송 시스템 중 수신 시스템의 오디오 데이터 처리 방법은, 멀티 채널 오디오 데이터를 포함하는 이동형 방송 신호를 수신하는 단계, 상기 이동형 방송 신호에 포함된 식별 정보를 이용하여 멀티 채널 오디오 데이터를 추출하는 단계, 및 상기 추출된 멀티 채널 오디오 데이터를 디코딩하여 출력하는 단계를 포함할 수 있다.
본 발명의 다른 목적, 특징 및 잇점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.
본 발명은 지상파 DMB에서 멀티 채널 오디오 서비스를 가능하게 함으로써, 이동 방송을 통해 보다 고음질 서비스를 시청자에게 제공할 수 있는 효과가 있다.
이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.
본 발명은 지상파 DMB를 전송할 수 있는 송신 시스템에서 5.1 채널과 같은 멀티 채널 오디오 신호를 전송할 수 있도록 하고, 지상파 DMB를 수신할 수 있는 수신 시스템에서 상기 멀티채널 오디오 신호를 수신하여 사용자에게 제공할 수 있도록 하는데 있다.
도 1은 본 발명에 따른 지상파 DMB 패킷 구조에 대한 일 실시예를 보이고 있다.
도 1에서, DMB 방송을 위한 송신 시스템 내 MPEG-4 시스템은 기 설정된 압축 알고리즘으로 각각 압축 부호화된 오디오/비디오 요소 스트림(Audio/Video elementary stream ; A/V ES)을 MPEG-4 싱크 레이어(Sync Layer ; SL)로 패킷화(packetize)한다.
예를 들어, 비디오는 MPEG-4/AVC(Advanced Video Coding)(MPEG-4 파트 10)을 사용하여 압축 부호화한 후 MPEG-4 SL(Sync Layer)로 패킷화할 수 있고, 오브젝트 지향 대화형 기능을 지원하기 위해 MPEG-4 BIFS(Binary Format for Scenes) 대화형 콘텐츠들도 MPEG-4 SL로 패킷화할 수 있다.
그리고 오디오는 MPEG-4/BSAC(Bit Sliced Arithmetic Coding) 방식을 사용하여 압축 부호화한 후 MPEG-4 SL로 패킷화하거나, MPEG 서라운드 방식을 사용하여 압축 부호화한 후 MPEG-4 SL로 패킷화할 수 있다. 다른 예로, MPEG-4 BSAC과 MPEG 서라운드가 조합된 오디오 ES를 MPEG-4 SL로 패킷화할 수 있다. 설명의 편의를 위해 상기 MPEG-4 BSAC 오디오 신호를 메인 오디오 데이터라 하기로 한다.
송신 시스템 내 MPEG-2 시스템은 MPEG-4 시스템에서 패킷화된 MPEG-4 SL 패킷에 대해 PES(packetized elementary stream) 형태로 패킷화하고, 이어 MPEG-2 트랜스포트 스트림(Transport Stream ; TS)으로 패킷화한다. 상기 MPEG-2 TS 패킷은 헤더(header)와 페이로드(payload)로 구성된다. 상기 MPEG-2 시스템은 MPEG-2 TS 패킷에 대해 리드-솔로몬 부호화를 수행하여 TS 패킷 뒤에 16 바이트 크기의 리드-솔로몬(Reed-Solomon) 코드(code)를 붙이고, 이어 바이트 인터리빙(byte interleaving)을 수행한 후 그 결과를 수신 시스템으로 전송한다.
이와 같이 지상파 DMB의 송신측에서는 MPEG-4 시스템 표준을 사용하여 오디오/비디오 오브젝트(A/V Object)들을 전송하고, 이러한 AV 오브젝트들의 시공간상의 배치를 나타내는 장면 서술 정보(scene description information)를 전송함으로써, 수신 시스템에서 장면을 구성한 후, 2차원 디스플레이에 맞게 렌더링하여 표시할 수 있게 한다. 실제적으로 장면 서술 정보는 트리 구조로 되어 있으며, 트리의 각 노드는 A/V 오브젝트를 표시하게 된다. 그리고 상기 트리의 종단 노드에 오브젝트 서술자(Object Descriptor ; OD)가 연결되어 있는데, 이 OD는 오브젝트의 여러 가지 속성과 이 오브젝트에 해당하는 실제 데이터의 위치를 알려주는 정보를 포함하고 있다. 따라서 수신 시스템은 우선 장면 구성 정보를 참조한 후 각 오브젝트의 시공간 상의 위치를 정하고, OD를 이용하여 오브젝트 데이터를 찾아와서 지정된 속성에 따라 이를 장면에 배치한다.
또한 송신측에서는 MPEG-2 TS의 PAT(Program Association Table)와 MPEG-4 시스템 표준의 초기 객체 서술자(Initial Object Descriptor ; IOD)를 다중화 스트 림 내에 전송한다. 이때 상기 IOD는 MPEG-2 TS의 PMT(Program Map Table)에 포함된다.
즉, MPEG-4로 압축 부호화된 멀티미디어를 MPEG-2 TS로 패킷화할 때, 상기된 PMT 신택스에 MPEG-4에서 정의된 IOD와 SL(Sync Layer) descriptor가 포함된다.
상기 IOD는 전송되는 MPEG-4 콘텐츠의 프로파일(profile)과 레벨(level) 정보를 알려준다. 또한 OD 스트림의 ES(Elementary Stream) ID와 SD(Scene Description) 스트림의 ES ID 정보를 포함한다. 즉, IOD의 ES descriptor에 OD 스트림에 관한 정보와 SD 스트림에 관한 정보가 기술되어 있다. 상기 IOD는 SD의 BIFS와 OD를 연결시키는 포인터 역할을 한다. 따라서 수신 시스템의 MPEG-4 시스템에서 IOD를 해석하면 장면 기술에 관한 정보와 각각 오브젝트에 관한 정보를 전송하는 논리적 채널(ES_ID)을 얻을 수 있다. 이 후 각각의 논리적 채널에 접근해서 장면을 구성하고, 각각 오브젝트에 관한 정보를 얻은 후에 음향 혹은 영상에 관한 논리적 채널을 얻을 수 있다.
상기 OD는 ES descriptor를 포함하고, 상기 ES descriptor는 ES_ID와 DecoderConfigDescriptor를 포함한다. 상기 DecoderConfigDescriptor는 전송되는 스트림의 종류를 표시한 stream type 정보, 오브젝트의 타입을 알 수 있는 objectTypeIndication, 그리고 각 스트림에 대한 디코딩 정보를 알 수 있는 Decoderspecific info를 포함한다.
본 발명은 수신 시스템에서 멀티 채널 오디오 신호를 수신하여 올바르게 출력할 수 있도록 하기 위해서, 상기 PMT를 통해 전송되는 stream type 값에 MPEG 서 라운드 오디오 데이터를 유일하게 구분할 수 있는 값을 할당할 수 있다. 즉, 전송되는 스트림이 MPEG 서라운드 오디오 스트림이면, 도 2와 같이 stream type 값에 0x1C를 할당하는 것을 일 실시예로 한다. 상기 0x1C 값은 하나의 실시예이며, 시스템 설계자에 의해 다른 값으로 변경될 수 있다.
이와 같이 본 발명은 PMT를 통해 MPEG 서라운드 오디오 데이터(Surround audio data)를 signaling 하기 위해 multi channel extension audio를 위한 stream type 값을 할당할 수 있다.
여기서, MPEG 서라운드 오디오 데이터에 새로운 스트림 타입 값을 할당하는 이유는 메인 오디오 데이터와 멀티 채널 오디오 데이터를 트랜스포트 스트림(TS) 레벨에서 구분하기 위해서이다. 예를 들어, 지상파 DMB 수신 시스템의 사양에 따라 멀티 채널 오디오를 지원하지 못하는 시스템이 있을 수도 있으며 이 경우에 메인 채널 오디오만을 디코딩하고 multi channel extension audio로 정의된 stream type 데이터를 무시할 수 있도록 하기 위해서이다.
도 3 내지 도 5는 본 발명에 따른 멀티 채널 오디오 데이터(예를 들어, MPS 오디오 데이터)를 MPEG SL에 패킷화하는 방법의 실시예들을 보이고 있다.
도 3은 MPS(MPEG Surround) ES를 현재의 오디오 ES 내 보조 데이터(Ancillary data)(즉, BSAC Extension) 필드에 삽입하여 MPEG SL로 패킷화하는 방법의 일 예를 보이고 있다. 즉, 하나의 SL 패킷 내 페이로드에 BSAC 오디오 ES와 MPS 오디오 ES가 모두 삽입된다. 이때 오디오 ES를 전송하는 각 SL 패킷의 ES_ID는 BSAC 오디오 ES와 MPS 오디오 ES의 구분 없이 동일한 값(예, 0x101)을 갖는다. 이 경우 BSAC 오디오 ES와 MPS 오디오 ES는 시스템 레이어에서는 구분할 수 없으며, 오디오 디코더에서 구분할 수 있다.
도 4는 MPS 오디오 ES를 위해 독립적인 서브 채널을 할당하고, 할당된 서브 채널로 MPS 오디오 ES를 전송하는 방법의 일 예를 보이고 있다.
예를 들어, 서브 채널 A를 통해 비디오, BSAC 오디오 ES, 시스템 정보(예, PMT, PAT 등)를 모두 전송하고, 새로이 할당된 서브 채널 B를 통해 MPS 오디오 ES만 전송할 수 있다. 이때 상기 서브 채널 B로 전송되는 MPS 오디오 ES의 ES_ID는 BSAC 오디오 ES의 ES_ID와 동일한 값을 가질 수도 있고, 다른 값을 가질 수도 있다.
도 5는 MPS 오디오 ES에 별도의 ES_ID를 할당하고, BSAC 오디오 ES를 전송하는 SL 패킷과 구분되어 별도의 SL 패킷으로 전송하는 방법의 일 예를 보이고 있다.
만일 BSAC 오디오 ES의 ES_ID가 0x101이라고 가정하면, MPS 오디오 ES의 ES_ID는 0x101이 아닌 값 예를 들어, 0x105로 할당할 수 있다. 본 발명은 상기 MPS 오디오 ES에 할당하는 ES_ID는 기존 수신 시스템 즉, 기존의 지상파 DMB 수신기에서 사용하지 않는 ES_ID를 할당하는 것을 일 실시예로 한다. 이는 기존 수신 시스템에서는 상기 BSAC 오디오 ES에 대해서만 복호를 수행하고 MPS 오디오 ES에 대해서는 복호를 수행하지 않고 무시하도록 함으로써, 기존 수신 시스템과 역호환성을 가지기 위해서이다.
이때, MPS 오디오 ES는 비트레이트(bitrate)가 낮아서 복수개의 MPS 오디오 ES를 모아 수퍼 프레임을 구성하고, 구성된 수퍼 프레임 단위로 상기 MPS 오디오 ES를 SL 패킷 내 페이로드에 삽입할 수 있다. 이때 상기 수퍼 프레임을 구성하는 비디오 ES의 기본 단위는 AU(Access unit)이다. 상기 AU는 오디오 스트림의 복호 단위이다.
도 5에서는 3개의 MPS 오디오 ES를 모아 구성된 MPS 수퍼 프레임이 하나의 SL 패킷 내 페이로드에 삽입된 예를 보이고 있다. 상기 AU는 오디오 스트림의 복호 단위이다.
이때 SL 패킷의 헤더와 페이로드 중 적어도 하나 또는 수퍼 프레임의 헤더에는 해당 수퍼 프레임을 구성하는 AU 개수를 알려주는 필드가 있을 수 있다.
도 5와 같이 BSAC 오디오 ES와 MPS 오디오 ES에 각각 독립적인 ES_ID를 할당하여 전송할 때의 오디오 ES를 수신하는 방법은 다음과 같다.
먼저, IOD/OD를 이용하여 오디오 스트림에 대한 ES_ID를 추출한다. 이 과정은 선택적(optional)이다. 즉, 상기 BSAC 오디오 ES와 MPS 오디오 ES에 대한 각 ES_ID는 송신측에서 오디오 ES를 전송할 때 그 값을 결정할 수도 있고, 송/수신측의 약속에 의해 미리 고정된 값이 할당되어 있을 수도 있다. 후자의 경우 오디오 스트림에 대한 ES_ID를 추출하기 위하여 IOD/OD를 파싱할 필요는 없다.
다음은 수신 시스템에서 도 6, 도 7, 및 IOD/OD를 이용하여 BSAC 및 MPEG 서라운드 오디오 데이터로 구성된 5.1 채널 오디오 서비스를 위한 데이터 파싱 과정을 설명한다.
즉, 송신측에서는 MPEG-2 TS의 PAT(Program Association Table)와 MPEG-4 시스템 표준의 초기 객체 서술자(Initial Object Descriptor ; IOD)를 다중화 스트림 내에 전송한다. 이때 상기 IOD는 MPEG-2 TS의 PMT(Program Map Table)에 포함된다.
상기 PAT는 프로그램의 정보를 담고 있는 TS 패킷의 PID 정보를 제공한다. 상기 PAT는 PID=0x00인 패킷에 의해 전송되는 특수 정보로서, 각 프로그램 번호마다 그 프로그램의 구성 요소를 기술하며, 프로그램 맵 테이블(PMT)을 전송하는 트랜스포트 패킷의 PID를 가리킨다.
즉, PID가 0x00인 TS 패킷의 페이로드를 파싱하여 프로그램 번호(Program number)와 PMT의 PID를 알아낸다.
상기 PAT로부터 얻어낸 PMT는 프로그램을 구성하는 구성 요소들간의 상관 관계를 제공한다. 이때 지상파 DMB는 MPEG-4 콘텐츠가 전송되기 때문에, IOD가 PMT에 포함된다. 따라서 상기 PMT 내에 포함된 IOD descriptor 정보를 추출한다. 그리고 추출된 IOD descriptor에 포함된 해당 ES Descriptor의 ES_ID와 SL Descriptor의 ES_ID의 매핑(mapping)을 통해 각 ES에 대한 PID를 검색한다.
이때 상기 ES Descriptor가 오디오 스트림에 대한 디스크립터인 경우, 상기 ES Descriptor에는 오디오의 코딩 특성(프로파일 등)에 대한 정보를 포함하는 DecoderConfigDescriptor 필드가 포함되어 전송된다. 이때, DecoderConfigDescriptor는 메인 채널 코덱 및 서브 채널 코덱에 대한 정보가 해당하는 ES(또는 SL)에 대해 별도로 정의된다. 상기 DecoderConfigDescriptor 필드는 전송되는 스트림의 종류를 표시한 stream type 필드, 오브젝트의 타입을 알 수 있는 objectTypeIndication 필드, 그리고 각 스트림에 대한 디코딩 정보를 알 수 있는 Decoderspecific info 필드를 포함한다.
즉, MPEG-4로 압축 부호화된 멀티미디어를 MPEG-2 TS로 패킷화할 때, 상기된 PMT 신택스에 MPEG-4에서 정의된 IOD와 SL(Sync Layer) descriptor가 포함된다. 이때, 첫 번째 루프의 descriptor()영역에 IOD descriptor가 포함되고, 두번째 루프의 descriptor()영역에 SL descriptor가 포함된다.
상기 IOD는 도 7에서 보는 것처럼, 전송되는 MPEG-4 콘텐츠의 프로파일(profile)과 레벨(level) 정보를 알려준다. 또한 OD 스트림의 ES(Elementary Stream) ID와 SD(Scene Description) 스트림의 ES ID 정보를 포함한다. 즉, IOD의 ES_descriptor 필드에 OD 스트림에 관한 정보와 SD 스트림에 관한 정보가 기술되어 있다. 상기 IOD는 SD의 BIFS와 OD를 연결시키는 포인터 역할을 한다. 따라서 상기 IOD를 해석하면 장면 기술에 관한 정보와 각각 오브젝트에 관한 정보를 전송하는 논리적 채널(ES_ID)을 얻을 수 있다. 이 후 각각의 논리적 채널에 접근해서 장면을 구성하고, 각각 오브젝트에 관한 정보를 얻은 후에 음향 혹은 영상에 관한 논리적 채널을 얻을 수 있다.
또한 상기 PMT의 두 번째 루프에는 SL에서 패킷화된 스트림(packetized stream)이 PES(Packetized Elementary Stream) 타입으로 전송되는지 섹션 타입으로 전송되는지 구분할 수 있는 stream_type 필드와 각 스트림의 PID(elementary_PID) 필드, 그리고 해당 PID의 ES ID 정보를 포함하고 있다. 따라서 PMT 정보를 해석하면 TS로 전송되는 모든 프로그램의 정보를 얻을 수 있으며, 해당 프로그램을 구성하는 각 ES에 대한 PID 정보도 얻을 수 있다.
일 예로, 상기 BSAC 오디오 ES와 MPS 오디오 ES에 각각 독립적인 ES_ID가 할 당되어 수신된다면, 상기 PMT를 통해 BSAC 오디오 ES의 PID와 MPS 오디오 ES의 PID를 추출할 수 있다.
그리고 추출된 BSAC 오디오 ES의 PID와 MPS 오디오 ES의 PID를 이용하여 BSAC 오디오 ES(즉, 메인 오디오 ES)를 포함하는 MPEG-4 SL과 MPS 오디오 ES를 포함하는 MPEG-4 SL 패킷을 각각 필터링할 수 있다. 상기 필터링된 각 MPEG-4 SL 패킷의 페이로드에 삽입된 ES는 각각의 디코더로 출력된다.
즉, BSAC 오디오 ES는 메인 오디오 스트림을 복호할 수 있는 디코더로 출력되고, MPS 오디오 ES는 MPEG 서라운드 오디오 스트림을 복호할 수 있는 디코더로 출력된다.
이를 위해 본 발명의 수신 시스템은 멀티 채널 오디오 디코더를 포함하며, 상기 멀티 채널 오디오 디코더는 BSAC 디코더를 포함하는 것을 일 실시예로 한다.
이 경우, 메인 오디오 ES인 BSAC 오디오 ES는 멀티 채널 오디오 디코더 내 BSAC 디코더로 출력되고, MPS 오디오 ES는 멀티 채널 오디오 디코더로 출력된다. 상기 BSAC 디코더는 BSAC 오디오 ES를 BSAC 복호 방식에 따라 복호하여 모노 또는 스테레오 오디오 신호를 복원한다. 상기 멀티 채널 오디오 디코더는 BSAC 디코더에서 복원된 모노 또는 스테레오 오디오 신호를 기초로 상기 SL 디패킷타이저에서 출력되는 MPS 오디오 ES를 복호하여 멀티 채널 오디오 신호를 복원한다.
그리고 상기 멀티 채널 오디오 디코더는 CTS(composition time stamp)를 이용하여 BSAC 오디오 신호와 MPS 오디오 신호의 동기를 맞춘다. 즉, BSAC 오디오 신호의 타임 스탬프와 MPS 오디오 신호의 타임 스탬프를 이용하여 두 신호의 동기를 맞춘다. 이때, MPS 오디오 신호의 타임 스탬프는 수퍼 프레임 내의 최초 MPS AU에 대한 스탬프를 의미한다.
도 8은 본 발명에 따른 멀티 채널 오디오 데이터를 수신하여 출력하기 위한 수신 시스템의 일 실시예를 보이고 있다. 특히 도 8은 도 5와 같이 BSAC 오디오 ES와 MPS 오디오 ES에 각각 독립적인 ES_ID를 할당하여 전송하는 경우에 적용하면 효과적이다.
도 8은 DAB 시스템(101), 디인터리버(102), RS 디코더(103), TS 디먹스(104), SL 디패킷타이저(105), 비디오 디코더(106), 멀티 채널 오디오 디코더(107), OD/BIFS 디코더(109), 시스템 정보 처리부(110), 및 저장부(111)를 포함할 수 있다. 상기 멀티 채널 오디오 디코더(107)는 BSAC 디코더(108)를 포함한다.
본 발명은 설명의 편의를 위하여 DAB 시스템(101), 디인터리버(102), 및 RS 디코더(103)를 포함하여 수신부라 칭하고, TS 디먹스(104)와 SL 디패킷타이저(105)를 포함하여 디패킷타이징부로 칭하기로 한다. 만일 수신 시스템이 기존의 지상파 DMB 수신기이면, 상기 멀티 채널 오디오 디코더(1087의 BSAC 디코더(108)에 의해 BSAC 오디오 데이터만 복호되어 출력된다.
상기 DAB 시스템(101)은 튜너, 베이스밴드 신호 처리부를 포함할 수 있다(도시되지 않음). 상기 베이스밴드 신호 처리부는 아날로그/디지털(A/D) 변환기, 동기화부(synchronizer), OFDM 복조기, 디인터리버, 비터비 디코더, 및 오디오 디코더를 포함할 수 있다(도시되지 않음). 상기 베이스밴드 신호 처리부 내 오디오 디코더는 기존 DAB 오디오 데이터를 복호하여 출력한다. 일 예로 상기 오디오 디코더는 DAB 오디오 신호를 MUSICAM(Masking pattern adapted universal sub-band integrated coding and multiplexing) 방식으로 복호하여 출력한다.
상기 DAB 시스템에서 처리된 데이터가 스트림 모드로 전송된 데이터이면, 데이터 스트림은 도 8의 디인터리버(102)로 출력되어 디인터리빙된 후 RS 디코더(103)로 출력된다.
상기 RS 디코더(103)는 데이터 스트림에 대해 추가의 오류 정정을 수행한 후 TS 디먹스(104)로 출력한다.
상기 TS 디먹스(104)는 오류 정정된 데이터 스트림에 대해 트랜스포트 스트림 디패킷타이징(Depacketizing), PES(Packetized Element Stream) 디패킷타이징을 수행하여 MPEG-4 SL 패킷을 추출한 후 SL 디패킷타이저(105)로 출력한다. 또한 상기 TS 디먹스(104)는 트랜스포트 스트림 디패킷타이징에 의해 추출된 시스템 정보는 시스템 정보 처리부(110)로 출력한다. 상기 시스템 정보는 PAT, PMT 등을 포함할 수 있다.
예를 들어, 도 5와 같이 BSAC 오디오 ES와 MPS 오디오 ES에 대해 각각 독립적인 ES_ID를 할당하여 전송하였다면, 상기 TS 디먹스(104)에서 추출된 MPEG-4 SL 패킷의 페이로드는 비디오 ES, BSAC 오디오 ES, MPS 오디오 ES, OD/BIFS ES, JPEG ES 중 어느 하나를 포함한다.
상기 SL 디패킷타이저(105)는 상기 TS 디먹스(104)에서 PES 디패킷타이징된 MPEG-4 SL 데이터에 대해 SL(Sync Layer) 디패킷타이징을 수행한다. 상기 SL 디패킷타이징에 의해 SL 패킷의 페이로드로부터 추출된 데이터가 BSAC 오디오 ES이면 멀티 채널 오디오 디코더(107)의 BSAC 디코더(108)로 출력되고, MPS 오디오 ES이면 멀티 채널 오디오 디코더(107)로 출력된다. 또한 비디오 ES이면 비디오 디코더(106)로 출력되고, OD/BIFS ES이면 OD/BIFS 디코더(109)로 출력된다. 상기 비디오 디코더(106), OD/BIFS 디코더(109)는 본 발명의 특징이 아니므로, 공지 기술을 참조하기로 하고 여기서는 상세 설명을 생략하기로 한다.
상기 시스템 정보 처리부(110)는 TS 디먹스(104)의 트랜스포트 스트림 디패킷타이징과 PES 디패킷타이징, 그리고 SL 디패킷타이저(105)의 SL 디패킷타이징을 제어하기 위해 시스템 정보 중 PAT로부터 PMT PID를 추출한다. 그리고 추출된 PMT PID에 대응하는 PMT를 파싱하여 IOD descriptor와 SL Descriptor를 추출한다. 그리고 추출된 IOD descriptor에 포함된 해당 ES Descriptor의 ES_ID와 SL Descriptor의 ES_ID의 매핑(mapping)을 통해 각 ES에 대한 PID를 검색한다.
일 예로, 상기 도 5와 같이 BSAC 오디오 ES와 MPS 오디오 ES에 각각 독립적인 ES_ID가 할당되어 수신된다면, 상기 PMT를 통해 BSAC 오디오 ES의 PID와 MPS 오디오 ES의 PID를 추출할 수 있다.
그리고 추출된 BSAC 오디오 ES의 PID와 MPS 오디오 ES의 PID를 TS 디먹스(104)와 SL 디패킷타이저(105)로 출력함에 의해 BSAC 오디오 ES를 포함하는 MPEG-4 SL 패킷과 MPS 오디오 ES를 포함하는 MPEG-4 SL 패킷을 각각 필터링할 수 있다. 상기 필터링된 각 MPEG-4 SL 패킷의 페이로드에 포함된 해당 ES는 각각의 디코더로 출력된다. 즉, BSAC 오디오 ES는 멀티 채널 오디오 디코더(107) 내 BSAC 디코더(108)로 출력되고, MPS 오디오 ES는 멀티 채널 오디오 디코더(107)로 출력된 다.
상기 멀티 채널 오디오 디코더(107)의 BSAC 디코더(108)는 시스템 정보 처리부(110)에서 출력되는 오디오 코덱 정보를 기초로 상기 SL 디패킷타이저(105)에서 출력되는 BSAC 오디오 ES를 복호하여 모노 또는 스테레오 오디오 신호를 복원한다. 상기 멀티 채널 오디오 디코더(107)는 BSAC 디코더(108)에서 복원된 모노 또는 스테레오 오디오 신호와 시스템 정보 처리부(110)에서 출력되는 오디오 코덱 정보를 기초로 상기 SL 디패킷타이저(105)에서 출력되는 MPS 오디오 ES를 복호하여 멀티 채널 오디오 신호를 복원한다. 이때 상기 멀티 채널 오디오 디코더(107)는 CTS(composition time stamp)를 이용하여 BSAC 오디오 신호와 MPEG 서라운드 오디오 신호의 동기를 맞춘다. 즉, BSAC 오디오 신호의 타임 스탬프와 MPEG 서라운드 오디오 신호의 타임 스탬프를 이용하여 두 신호의 동기를 맞춘다. 이때, MPEG 서라운드 오디오 신호의 타임 스탬프는 수퍼 프레임 내의 최초 MPS AU에 대한 스탬프를 의미한다.
즉, 상기 시스템 정보 처리부(110)에서 파싱된 ES Descriptor가 오디오 스트림에 대한 디스크립터인 경우, 상기 ES Descriptor에는 오디오의 코딩 특성(프로파일 등)에 대한 정보를 포함하는 DecoderConfigDescriptor 필드가 포함되어 수신된다. 상기 DecoderConfigDescriptor 필드로부터 파싱된 오디오 코덱 정보는 저장부(111)에 저장되거나, 멀티 채널 오디오 신호의 복호를 위해 멀티 채널 오디오 디코더(107)로 출력된다. 이때, DecoderConfigDescriptor 필드에 포함된 메인 채널 코덱 및 서브 채널 코덱에 대한 정보는 해당하는 ES(또는 SL)에 대해 별도로 정의 된다. 상기 DecoderConfigDescriptor 필드는 전송되는 스트림의 종류를 표시한 stream type 필드, 오브젝트의 타입을 알 수 있는 objectTypeIndication 필드, 그리고 각 스트림에 대한 디코딩 정보를 알 수 있는 Decoderspecific info 필드 등을 포함할 수 있다.
전술한 바와 같이 멀티 채널 오디오 서비스를 지원하기 위해서는 ES_ID, OD_ID를 정의해야 하고, MPS 오디오 신호에 대한 코덱 정보를 위해 DecoderConfigDescriptor를 정의해야 한다. 또한 MPS 오디오 신호를 독립적인 ES로 전송시 TS 레이트(rate)를 최적화(optimize)하기 위하여 수퍼 프레임(super frame) 구조를 사용할 수 있다.
다음은 DecoderConfigDescriptor 필드로 AudioSpecificConfig()를 호출하고, 호출된 AudioSpecificConfig()에 포함된 SpatialSpecificConfig()를 이용하여 MPS 오디오 신호에 대한 오디오 코덱 정보를 획득하는 과정을 설명하기로 한다.
도 9 내지 도 23은 본 발명에 따른 멀티 채널 오디오 서비스를 지원하기 위해 DecoderConfigDescriptor 필드로 호출된 AudioSpecificConfig()의 신택스 구조에 대한 일 실시예를 보이고 있다.
여기서, 공간 오디오 데이터를 전송하는 ES는 Audio Object Type "MPEG Surround"에 의해 식별되는 것을 일 실시예로 한다(An elementary stream carrying spatial audio data is identified by the Audio Object Type "MPEG Surround"). 이때 MPEG 서라운드의 Audio Object Type ID는 30을 할당하고, BSAC의 Audio Object Type ID는 22를 할당하는 것을 일 실시예로 한다
그리고 상기 오브젝트를 위한 AudioSpecificConfig()는 SpatialSpecificConfig() 데이터와 sacPayloadEmbedding 플래그(flag)를 포함한다. 상기 sacPayloadEmbedding 플래그는 SpatialFrame() 페이로드가 ES로서 전송되는지, 아니면 다운믹스 데이터(downmix data)에 삽입되는지를 지시한다(The AudioSpecificConfig() for this object carries the SpatialSpecificConfig() data and a sacPayloadEmbedding flag that indicates whether the SpatialFrame() payload is conveyed as an elementary stream or embedded into the downmix data). 즉, 상기 AudioSpecificConfig()에서 SpatialSpecificConfig()에 대응되는 데이터는 DecoderConfigDescriptor에 실려서 전송된다.
각 MPS 오디오 ES는 SpatialFrame() 이라는 신택스에 의해 패킹(packing)되어 있으며, 이것은 SL -> PES -> TS 패킷화 과정을 거쳐 전송된다. 만일 도 5와 같이 MPS 오디오 ES를 전송한다면 MPS 오디오 ES의 ES_ID는 BSAC 오디오 ES의 ES_ID와 다른 값을 갖는다. 상기 SpatialFrame()의 사이즈가 너무 작아 효율적 TS trunk에 담기위해 super frame 구조를 사용할 수 있다. 이때 1개의 SL 패킷 내에 복수개의 MPS 오디오 ES가 삽입될 수 있다면 super frame이라는 syntax는 별도 정의할 필요가 없다. 그리고 한 개의 MPS SL에 대응하는 BSAC 오디오 ES가 여러 개일 수 있으며, 따라서 BSAC를 패킷화한 SL과 MPS를 패킷화한 SL의 개수가 일치하지 않을 수 있으나, 서로 배수 관계를 가질 수 있다.
여기서, ObjectType ID에 따라 BSAC 오디오에 대한 descriptor와 MPS 오디오에 대한 descriptor로 구분된다. 도 9 내지 도 23에서 BSAC 오디오에 대한 DecoderConfigDescriptor 내에 존재하는 데이터 필드(data field)는 10으로 표시하고, MPS 오디오에 대한 DecoderConfigDescriptor 내에 존재하는 데이터 필드(data field)는 20으로 표시하며, 공통일 때는 30으로 표시한다. 그리고, 도 4와 같이 BSAC+MPS를 하나의 오디오 ES에 조합(combine)해서 전송하는 경우는, AudioSpecificConfig()의 extensionAudioObjectType 관련한 내용을 통해 하나의 AudioSpecificConfig()를 통해 BSAC 및 MPS 오디오에 대한 descriptor 정보를 같이 전송할 수 있다. 이를 위해 사용되는 필드는 40으로 표시한다. 따라서 BSAC 오디오 ES와 MPS 오디오 ES에 대해 각각 별도의 ES_ID를 할당하여 전송하는 경우, 도 9 내지 도 23에서 사용된 부호 40에 관련된 필드는 생략될 수 있다.
즉, 도 9a, 도 9b의 AudioSpecificConfig() descriptor는 Object Type ID에 따라 BSAC 오디오인 경우는 GASpecificConfig() descriptor를, MPS 오디오인 경우는 SpatialSpecificConfig() descriptor를 호출한다.
이때 MPS 오디오에 대한 AudioSpecificConfig() descriptor에서 samplingFrequencyIndex 필드 값은 BSAC 오디오에 대한 samplingFrequencyIndex 필드 값과 다를 수 없다. MPS 오디오에 대한 AudioSpecificConfig() descriptor에서 channelConfiguration은 의미 없다. 그리고 도 12a, 도 12b의 MPS 오디오에 대한 SpatialSpecificCongif() descriptor에서 bsSamplingFrequencyIndex 필드 값은 MPS 및 BSAC 오디오의 AudioSpecificConfig() descriptor 상의 samplingFrequencyIndex 필드 값과 다를 수 없다. 따라서 중복된 데이터로써, 어느 한쪽을 무시하도록 정의할 수 있다.
그리고 상기 SpatialSpecificCongif() 디스크립터에 있는 bsFrameLength 값은 BSAC 오디오의 frame size인 1024 샘플의 배수를 가리키도록 구성되어야 한다. 이 정보를 이용하여 MPS 프레임 컨셉을 사용할 수 있다. 최대 8192 샘플을 1개의 MPS 프레임으로 정의할 수 있으며, 이는 8개의 BSAC 프레임에 대응이 된다. 이 필드를 이용하는 경우, 1개의 단일 MPS 프레임이 BSAC 여러 개에 대응되는 개념이다. 이때, 복수 개의 BSAC 프레임(ES)를 1개의 MPS 프레임에 대응시키기 위해서는 서로 간의 관계를 알려주는 식별자나 싱크 정보, 타이밍 정보 등이 필요할 수 있다. 그리고 target application을 위해 도 12a, 도 12b의 SpatialSpecificConfig()내의 여러 parameter들은 그 동작 범위를 제한할 수 있다. 예를 들어, 5.1 채널 초과의 멀티채널 모드는 지원하지 않기 위해 bsTreeConfig 필드 값을 제한한다거나 bsArbitraryDownmix, bsMatrixMode, bs3DaudioMode 필드 등을 특정 값으로 제한할 수 있다.
도 10은 도 9의 AudioSpecificConfig() descriptor에서 호출되는 GetAudioObjectType() 신택스 구조의 일 실시예를 보이고 있다.
도 11은 도 9의 AudioSpecificConfig() descriptor의 Object Type ID이 23일 때 호출되는 BSAC 오디오를 위한 GASpecificConfig()의 신택스 구조의 일 실시예를 보이고 있다. 각 필드의 상세 설명은 공지된 기술을 참조하기로 하고 여기서는 생략하기로 한다.
도 12a, 도 12b는 도 9의 AudioSpecificConfig() descriptor의 Object Type ID이 30일 때 호출되는 MPS 오디오를 위한 SpatialSpecificConfig()의 신택스 구조 의 일 실시예를 보이고 있다.
도 12a, 도 12b에서, bsSamplingFrequencyIndex 필드는 ISO/IEC 14496-4에 있는 table에 따라 얻을 수 있는 표본화 주파수를 표시한다. 이때, MPS 오디오의 표본화 주파수는 BSAC 오디오의 표본화 주파수와 다를 수 없다.
bsSamplingFrequency 필드는 table로 표현되지 않는 표본화 주파수를 나타낼 때 사용된다. 한편 지상파 DMB에서는 특정 3개의 표본화 주파수로 제한하고 있기 때문에 본 발명에서 bsSamplingFrequency 필드는 생략될 수 있다.
bsFrameLength 필드는 오디오 프레임 길이를 slot 단위로 표시한다. 1 slot은 64 time sample을 의미한다. 공간 프레임에서 타임 슬롯의 개수(=numSlots)는 다음의 수학식 1에 의해 정의된다.
[수학식 1]
numSlots = bsFrameLength+1
본 발명은 1024 및 2048 샘플만을 지원하도록 하는 것을 일 실시예로 한다. 즉, 슬롯으로 16 또는 32 slot만 지원하는 것을 일 실시예로 한다.
bsFreqRes 필드는 MPS 파라미터의 전송 개수를 결정하는 주파수 해상도를 의미하며, 도 13에 따라 파라미터 밴드들(parameter bands)의 개수를 결정하는 것을 일 실시예로 한다.
bsTreeConfig 필드는 모노 혹은 스테레오로 다운믹스된 오디오 신호로부터 멀티채널 신호를 업믹스하기 위한 방법을 기술한다. 즉, 업믹스를 하는 방법을 정의하는 것이 bsTreeConfig 필드이며, 상기 bsTreeConfig 필드 값은 도 14a, 도 14b 에 따라 정의될 수 있다.
bsQuantMode 필드는 CLD를 양자화를 결정하는 모드를 표시한다. 즉, CLD를 양자화함에 있어 다른 curve를 적용하여 양자화하는 방식을 사용할 수 있는데, 상기 bsQuantMode 필드는 이를 결정하는 모드를 표시한다. 즉, 도 15에 따라 양자화 및 CLD 에너지 의존 양자화(quantization and CLD energy-dependent quantization (EdQ))를 정의할 수 있다.
bsOneIcc 필드는 MPS 파라미터 중 ICC 값을 전 주파수 밴드에 대해 하나의 값으로 사용하는지 여부를 나타낸다.
bsArbitraryDowmix 필드는 Arbitrary downmix gain 정보 전송 여부를 나타낸다.
bsFixedGainsSur 필드는 Surround 채널에 대한 gain 값을 나타낸다. 도 16에 따라 서라운드 채널을 위해 사용되는 게인 값을 정의할 수 있다.
bsFixedGainsLFE 필드는 LFE 채널에 대한 gain 값을 나타낸다. 도 17에 따라 LEF 채널을 위해 사용되는 게인 값을 정의할 수 있다.
bsFixedGainsDMX 필드는 다운믹스에 대한 gain 값을 나타낸다. 도 18에 따라 다운믹스를 위해 사용되는 게인 값을 정의할 수 있다.
bsMatrixMode 필드는 다운믹스 방식이 matrix compatible stereo downmix 인지 여부를 나타낸다.
bsTempShapeConfig 필드는 시간 쉐이핑(Temporal shaping)이라는 디코딩 과정에서 적용되는 툴을 알려준다. 도 19에 따라 디코더에서 시간 쉐이핑(STP 또는 GES)의 동작 모드를 지시할 수 있다.
bsDecorrConfig 필드는 업믹스 과정에서 decorrelator를 사용하는데, 어떤 configuration을 이용하는지 표시한다. 도 20에 따라 디코더에서 decorrelator의 동작 모드를 지시할 수 있다.
bs3DaudioMode 필드는 스테레오 downmix가 3D오디오 모드로 되어 있는지 여부를 나타낸다.
bsEnvQuantMode 필드는 도 21에 따라 Envelop shape에 대한 양자화 방법을 나타낸다.
bs3DaudioHRTFset 필드는 3D 오디오 모드에서 사용되는 HRTF 파라미터의 세트 종류를 나타낸다. 도 22에 따라 HRTF 세트를 지시할 수 있다.
OttConfig(i)는 Ott (One-To-Two Box) 파라미터 전송에 관련된 config 정보를 담는 syntax를 나타낸다.
TttConfig(i)는 ttt (Two-To-Three Box) 파라미터 전송에 관련된 config 정보를 담는 syntax를 나타낸다.
SpatialExtensionConfig()는 필요에 따라 선택적으로 전송이 되는 부가정보에 대한 config 정보를 담는 syntax를 나타낸다.
한편, 각 MPS 오디오 ES는 SpatialFrame() 이라는 신택스에 의해 패킹(packing)되어 있으며, 이것은 SL -> PES -> TS 패킷화 과정을 거쳐 전송된다.
도 23은 본 발명에 따른 SpatialFrame() 신택스 구조의 일 실시예를 보이고 있다.
도 23에서, FramingInfo()는 프레임을 packing하는데 필요한 프레임별 부가 정보를 나타낸다.
bsIndependencyFlag 필드는 현재 프레임이 독립적으로 복호화가 가능한 지 여부를 알려주는 플래그이다. 만일 이 필드 값이 0이면 이전 프레임 정보를 가지고 있어야 복호화가 가능하다.
OttData()는 OTT 데이터 복호에 필요한 파라미터 정보를 전송한다.
TttData()는 TTT 데이터 복호에 필요한 파라미터 정보를 전송한다.
SmgData()는 Smoothing 데이터 복호에 필요한 파라미터 정보를 전송한다.
TempShapeData()는 Temporal Shaping 데이터 복호에 필요한 파라미터 정보를 전송한다.
ArbitraryDownmixData()는 Arbitrary Downmix 를 복원하기 위한 부가 정보를 전송한다.
SpatialExtensionFrame()는 Residual 등 추가로 전송되는 부가 파라미터 정보를 전송한다.
다음은 본 발명에 따른 NewConfigDescriptor() 신택스 구조의 예를 보인다.
NewConfigDescriptor()
bsAudioContentsTypeInfo;
bsAudioContentsTypeExtensionInfo;
bsRenderingGuideInfo;
bsDownmixMode;
상기 bsAudioContentsTypeInfo 필드는 전송되는 오디오 콘텐츠(audio contents)의 타입(type)을 알려주는 것으로, 예를 들어, news, drama, movie, sports, music 등의 장르를 구별해주거나, bsAudioContetnsTypeExtensionInfo 필드와 결합하여, music에서 classic, rock, concert, choir, jazz, pop, ...으로 세부적으로 구별하여 정보를 알려준다.
상기 멀티 채널 오디오 디코더(107)에서는 이와 같은 정보를 활용하여, 5.1 채널 디코딩된 신호의 적절한 재분배뿐 아니라, 적절한 음색 제어를 할 수 있다. 또한, 이 정보를 EPG나 OSD를 통해 유저에게 정보를 알려주는데 사용할 수 있다.
상기 bsRenderingGuideInfo 필드는 전송된 멀티 채널 콘텐츠(multichannel contents)를 binaural rendering을 하거나, 자동차 환경과 같이 4.0 채널로 downmix를 해야할 때, 혹은 스테레오(stereo)로 다운믹스(downmix)할 때 바람직한 모드를 멀티 채널 오디오 디코더(107)에 알려주는 역할을 한다. 유사하게 bsDownmixMode 가 전송될 수 있다.
이는 MPS를 사용하는 환경이 차량인 점을 고려할 때 유용한 정보가 된다. 5.1 채널을 4.0 채널로 매핑하는 configuration 정보나, downmix 과정에 필요한 gain term 등을 이와 같은 필드를 통해 전송해줄 수 있다.
예를 들어,
bsDownmixMode = 0 이면,
Lout = L * 1.0 + C * 0.5 + LFE * 0.5
Rout= C * 0.5 + R * 1.0 + LFE * 0.5
Lsout = Ls * 1.0
Rsout = Rs * 1.0
bsDownmixMode = 1 이면,
Lout = L * 0.7 + C * 0.7 + LFE * 0.7
Rout= C * 0.7 + R * 0,7 + LFE * 0.7
Lsout = L * 0.2 + Ls * 0.9
Rsout = R * 0.2 + Rs * 0.9
와 같이 서로 다른 gain으로 downmix 하게 하는 것이 실시 예이다.
지금까지 설명한 본 발명은 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가지 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다.
도 1은 본 발명에 따른 지상파 DMB 패킷 구조에 대한 일 실시예를 보인 도면
도 2는 본 발명에 따른 stream type 값의 예를 보인 도면
도 3 내지 도 5는 본 발명에 따른 멀티 채널 오디오 데이터를 MPEG SL에 패킷화하는 방법의 실시예들을 보인 도면
도 6, 도 7은 본 발명에 따른 시스템 정보 테이블을 파싱하는 과정을 보인 도면
도 8은 본 발명에 따른 멀티 채널 오디오 데이터를 수신하여 출력하기 위한 수신 시스템의 일 실시예를 보인 구성 블록도
도 9a, 도 9b는 본 발명에 따른 AudioSpecificConfig의 신택스 구조의 일 실시예를 보인 도면
도 10은 본 발명에 따른 GetAudioObjectType() 신택스 구조의 일 실시예를 보인 도면
도 11은 본 발명에 따른 GASpecificConfig() 신택스 구조의 일 실시예를 보인 도면
도 12a, 도 12b는 본 발명에 따른 SpatialSpecificConfig() 신택스 구조의 일 실시예를 보인 도면
도 13은 본 발명에 따른 SpatialSpecificConfig()의 bsFreqRes 필드에 정의되는 값들의 예를 표로 보인 도면
도 14a, 도 14b는 본 발명에 따른 SpatialSpecificConfig()의 bsTreeConfig 필드에 정의되는 값들의 예를 표로 보인 도면
도 15는 본 발명에 따른 SpatialSpecificConfig()의 bsQuantMode 필드에 정의되는 값들의 예를 표로 보인 도면
도 16은 본 발명에 따른 SpatialSpecificConfig()의 bsFixedGainsSur 필드에 정의되는 값들의 예를 표로 보인 도면
도 17은 본 발명에 따른 SpatialSpecificConfig()의 bsFixedGainsLFE 필드에 정의되는 값들의 예를 표로 보인 도면
도 18은 본 발명에 따른 SpatialSpecificConfig()의 bsFixedGainsDMX 필드에 정의되는 값들의 예를 표로 보인 도면
도 19는 본 발명에 따른 SpatialSpecificConfig()의 bsTempShapeConfig 필드에 정의되는 값들의 예를 표로 보인 도면
도 20은 본 발명에 따른 SpatialSpecificConfig()의 bsDecorrConfig 필드에 정의되는 값들의 예를 표로 보인 도면
도 21은 본 발명에 따른 SpatialSpecificConfig()의 bsEnvQuantMode 필드에 정의되는 값들의 예를 표로 보인 도면
도 22는 본 발명에 따른 SpatialSpecificConfig()의 bs3DaudioHRTFset 필드에 정의되는 값들의 예를 표로 보인 도면
도 23은 본 발명에 따른 SpatialFrame() 신택스 구조의 일 실시예를 보인 도면
* 도면의 주요 부분에 대한 부호의 설명*
101 : DAB 시스템 102 : 디인터리버
103 : RS 디코더 104 : TS 디먹스
105 : SL 디패킷타이저 106 : 비디오 디코더
107 : 멀티 채널 오디오 디코더 108 : BSAC 디코더
109 : OD/BIFS 디코더 110 : 시스템 정보 처리부
111 : 저장부

Claims (15)

  1. 제1 오디오 신호, 멀티 채널을 위한 제2 오디오 신호, 및 시스템 정보를 포함하는 이동 방송 신호를 수신하는 수신부;
    상기 이동 방송 신호에 포함된 제1 오디오 신호와 제2 오디오 신호를 각 오디오 신호에 할당된 식별 정보를 참조하여 구분하는 디패킷타이징부; 및
    입력되는 오디오 코덱 정보를 기초로 상기 디패킷타이징부에서 구분되어 출력되는 상기 제1 오디오 신호를 복호하여 모노 또는 스테레오 오디오 신호를 복원하고, 상기 복원된 모노 또는 스테레오 오디오 신호 및 상기 디패킷타이징부에서 구분되어 출력되는 상기 제2 오디오 신호를 함께 이용하여 멀티 채널 오디오 신호를 복원하는 멀티 채널 오디오 디코더;
    를 포함하는 것을 특징으로 하는 수신 시스템.
  2. 제 1 항에 있어서,
    상기 시스템 정보로부터 상기 제1 오디오 신호와 상기 제2 오디오 신호를 식별하기 위한 식별 정보를 추출하여 상기 디패킷타이징부로 출력하고, 상기 제1 오디오 신호와 상기 제2 오디오 신호의 복호를 위한 오디오 코덱 정보를 추출하여 상기 멀티 채널 오디오 디코더로 출력하는 시스템 정보 처리부;
    를 더 포함하는 것을 특징으로 하는 수신 시스템.
  3. 제 2 항에 있어서, 상기 시스템 정보 처리부는
    상기 시스템 정보 중 프로그램 맵 테이블(PMT)의 IOD 디스크립터와 SL 디스크립터를 참조하여 상기 제1 오디오 신호 및 상기 제2 오디오 신호에 할당된 식별 정보를 추출하는 것을 특징으로 하는 수신 시스템.
  4. 제 1 항에 있어서,
    상기 제1 오디오 신호는 BSAC 오디오 신호이고, 상기 제2 오디오 신호는 MPEG 서라운드 오디오 신호인 것을 특징으로 하는 수신 시스템.
  5. 제 1 항에 있어서,
    상기 제1 오디오 신호와 상기 제2 오디오 신호는 서로 독립적인 ES_ID가 식별 정보로 할당되어 수신되는 것을 특징으로 하는 수신 시스템.
  6. 제 5 항에 있어서,
    상기 제1 오디오 신호와 상기 제2 오디오 신호는 서로 다른 SL 패킷으로 패킷화된 후, 상기 SL 패킷에 대해 PES 패킷화와 TS 패킷화가 순차적으로 수행되어 수신되는 것을 특징으로 하는 수신 시스템.
  7. 제 5 항에 있어서,
    상기 제2 오디오 신호에 해당하는 SL 패킷의 페이로드에 하나 이상의 억세스 유닛(AU) 단위로 제2 오디오 요소 스트림(ES)가 다중화되어 수신되는 것을 특징으로 하는 수신 시스템.
  8. 제1 오디오 신호, 멀티 채널을 위한 제2 오디오 신호, 및 시스템 정보를 포함하는 이동 방송 신호를 수신하는 단계;
    상기 이동 방송 신호에 포함된 상기 제1 오디오 신호와 상기 제2 오디오 신호를 각 오디오 신호에 할당된 식별 정보를 참조하여 구분하는 단계; 및
    입력되는 오디오 코덱 정보를 기초로 상기 구분하는 단계에서 구분된 상기 제1 오디오 신호를 복호하여 모노 또는 스테레오 오디오 신호를 복원하고, 상기 복원된 모노 또는 스테레오 오디오 신호 및 상기 구분하는 단계에서 구분된 상기 제2 오디오 신호를 함께 이용하여 멀티 채널 오디오 신호를 복원하는 단계;
    를 포함하는 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.
  9. 제 8 항에 있어서,
    상기 수신된 이동 방송 신호에 포함된 시스템 정보로부터 상기 제1 오디오 신호와 상기 제2 오디오 신호를 식별하기 위한 식별 정보를 추출하고, 상기 제1 오디오 신호와 상기 제2 오디오 신호의 복호를 위한 오디오 코덱 정보를 추출하는 단계;
    를 더 포함하는 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.
  10. 제 9 항에 있어서, 상기 식별 정보를 추출하는 단계는
    상기 시스템 정보 중 프로그램 맵 테이블(PMT)의 IOD 디스크립터와 SL 디스크립터를 참조하여 상기 제1 오디오 신호 및 상기 제2 오디오 신호에 할당된 식별 정보를 추출하는 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.
  11. 제 8 항에 있어서,
    상기 제1 오디오 신호는 BSAC 오디오 신호이고, 상기 제2 오디오 신호는 MPEG 서라운드 오디오 신호인 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.
  12. 제 8 항에 있어서,
    상기 제1 오디오 신호와 상기 제2 오디오 신호는 서로 독립적인 ES_ID가 식별 정보로 할당되어 수신되는 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.
  13. 제 12 항에 있어서,
    상기 제1 오디오 신호와 상기 제2 오디오 신호는 서로 다른 SL 패킷으로 패킷화된 후, 상기 SL 패킷에 대해 PES 패킷화와 TS 패킷화가 순차적으로 수행되어 수신되는 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.
  14. 제 8 항에 있어서,
    상기 제1 오디오 신호와 상기 제2 오디오 신호는 하나의 SL 패킷으로 패킷화된 후, 상기 SL 패킷에 대해 PES 패킷화와 TS 패킷화가 순차적으로 수행되어 수신되는 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.
  15. 제 8 항에 있어서,
    상기 제1 오디오 신호와 상기 제2 오디오 신호는 서로 다른 서브 채널로 수신되는 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.
KR1020080119041A 2007-11-28 2008-11-27 수신 시스템 및 오디오 데이터 처리 방법 KR101531510B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020080119041A KR101531510B1 (ko) 2008-11-27 2008-11-27 수신 시스템 및 오디오 데이터 처리 방법
EP08170248A EP2093911A3 (en) 2007-11-28 2008-11-28 Receiving system and audio data processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080119041A KR101531510B1 (ko) 2008-11-27 2008-11-27 수신 시스템 및 오디오 데이터 처리 방법

Publications (2)

Publication Number Publication Date
KR20100060449A KR20100060449A (ko) 2010-06-07
KR101531510B1 true KR101531510B1 (ko) 2015-06-26

Family

ID=42361363

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080119041A KR101531510B1 (ko) 2007-11-28 2008-11-27 수신 시스템 및 오디오 데이터 처리 방법

Country Status (1)

Country Link
KR (1) KR101531510B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103069817A (zh) * 2010-08-23 2013-04-24 Lg电子株式会社 用于在3dtv中提供3d视频数据的方法
KR20120071072A (ko) 2010-12-22 2012-07-02 한국전자통신연구원 객체 기반 오디오를 제공하는 방송 송신 장치 및 방법, 그리고 방송 재생 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060013818A (ko) * 2004-08-09 2006-02-14 한국전자통신연구원 3차원 디지털 멀티미디어 방송 시스템
KR20060052854A (ko) * 2003-07-21 2006-05-19 프라운호퍼-게젤샤프트 츄어 푀르더룽 데어 안게반텐 포르슝에.파우. 오디오 파일 포맷 변환
KR20070090684A (ko) * 2006-03-03 2007-09-06 엘지전자 주식회사 디지털 방송 신호 및 상기 방송 신호를 처리하는 방법 및장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060052854A (ko) * 2003-07-21 2006-05-19 프라운호퍼-게젤샤프트 츄어 푀르더룽 데어 안게반텐 포르슝에.파우. 오디오 파일 포맷 변환
KR20060013818A (ko) * 2004-08-09 2006-02-14 한국전자통신연구원 3차원 디지털 멀티미디어 방송 시스템
KR20070090684A (ko) * 2006-03-03 2007-09-06 엘지전자 주식회사 디지털 방송 신호 및 상기 방송 신호를 처리하는 방법 및장치

Also Published As

Publication number Publication date
KR20100060449A (ko) 2010-06-07

Similar Documents

Publication Publication Date Title
KR100587324B1 (ko) 디지털 멀티미디어 방송 서비스 방법, 송/수신기, 및 데이터 구조
CN106796797B (zh) 发送设备、发送方法、接收设备和接收方法
EP2695162B1 (en) Audio encoding method and system for generating a unified bitstream decodable by decoders implementing different decoding protocols
CN102171750B (zh) 用于输送对齐的多通道音频的方法和设备
JP6908168B2 (ja) 受信装置、受信方法、送信装置および送信方法
US11871078B2 (en) Transmission method, reception apparatus and reception method for transmitting a plurality of types of audio data items
EP2276192A2 (en) Method and apparatus for transmitting/receiving multi - channel audio signals using super frame
EP2093911A2 (en) Receiving system and audio data processing method thereof
KR100501909B1 (ko) 엠펙-4 데이터를 디지털 오디오 방송 데이터에 다중화하는 장치와 그 방법 및 그 역다중화 방법
KR101531510B1 (ko) 수신 시스템 및 오디오 데이터 처리 방법
KR101003415B1 (ko) Dmb 신호의 디코딩 방법 및 이의 디코딩 장치
KR101435815B1 (ko) 방송 시스템 및 오디오 데이터 처리 방법
KR100755839B1 (ko) 음성 다중을 지원하는 방송 시스템 및 방법
KR101435826B1 (ko) 방송 수신기의 방송 신호 처리 방법
KR20070041398A (ko) 신호 처리 방법 및 신호 처리 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee