KR20170031604A - Usac audio signal encoding/decoding apparatus and method for digital radio services - Google Patents

Usac audio signal encoding/decoding apparatus and method for digital radio services Download PDF

Info

Publication number
KR20170031604A
KR20170031604A KR1020160053168A KR20160053168A KR20170031604A KR 20170031604 A KR20170031604 A KR 20170031604A KR 1020160053168 A KR1020160053168 A KR 1020160053168A KR 20160053168 A KR20160053168 A KR 20160053168A KR 20170031604 A KR20170031604 A KR 20170031604A
Authority
KR
South Korea
Prior art keywords
audio
audio signal
decoding
coding scheme
superframe
Prior art date
Application number
KR1020160053168A
Other languages
Korean (ko)
Other versions
KR102457303B1 (en
Inventor
백승권
이태진
성종모
양규태
이봉호
이미숙
임형수
최진수
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US15/260,717 priority Critical patent/US10008214B2/en
Publication of KR20170031604A publication Critical patent/KR20170031604A/en
Application granted granted Critical
Publication of KR102457303B1 publication Critical patent/KR102457303B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0014Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the source coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0006Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the transmission format

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Disclosed are an apparatus and a method for encoding/decoding a unified speech and audio coding (USAC) audio signal for digital radio services. The method for encoding an audio signal includes the steps of: receiving the audio signal; determining a coding scheme for the received audio signal; encoding the audio signal based on the determined coding scheme; and configuring, as an audio super frame of a fixed size, an audio stream generated as a result of encoding the audio signal, wherein the coding scheme includes a first coding scheme associated with an extended high efficient advanced audio codec (HE-AAC) and a second coding scheme associated with an existing advanced audio codec (AAC) line.

Description

디지털 라디오 서비스를 위한 USAC 오디오 신호 인코딩/디코딩 장치 및 방법{USAC AUDIO SIGNAL ENCODING/DECODING APPARATUS AND METHOD FOR DIGITAL RADIO SERVICES}[0001] USAC AUDIO SIGNAL ENCODING / DECODING APPARATUS AND METHOD FOR DIGITAL RADIO SERVICES [0002]

본 발명은 디지털라디오 서비스를 위한 USAC(Unified Speech and Audio Coding) 오디오 신호 인코딩/디코딩 장치 및 방법에 관한 것으로, 보다 구체적으로는 오디오 신호에 대한 코딩 방식을 결정하고, 결정된 코딩 방식에 기초하여 오디오 신호를 인코딩/디코딩하는 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a USAC (Unified Speech and Audio Coding) audio signal encoding / decoding apparatus and method for digital radio service, and more particularly, To an apparatus and a method for encoding / decoding an audio signal.

USAC은 2012년도에 MPEG에서 표준화가 완료된 오디오 코덱 기술이다. USAC은 종전의 최고 기술들(HE-AACv2, AMR-WB+)과 성능을 비교하더라도 음성/오디오 신호에 대해서 개선된 성능 결과를 나타내었으며, 차세대 오디오 코덱 기술로 활용가치가 높다. USAC is an audio codec technology that has been standardized in MPEG in 2012. USAC showed improved performance results for voice / audio signals even when comparing performance with previous best technologies (HE-AACv2, AMR-WB +), and it is worth using as next generation audio codec technology.

기존에는 디지털라디오 서비스를 위한 DAB(Digital Audio Broadcasting) 전송 방식이 있었다. 그리고 이후 등장한 DAB+ 전송방식은 DAB에서 활용되던 오디오 코덱 기술 등을 개선하여 보나 나은 품질의 디지털라디오 서비스를 제공할 수 있는 방식이다. 본 발명은 최신 코덱인 USAC 오디오 코덱 기술을 DAB+에 활용하기 위하여 필요한 비트스트림 구조 및 프레이밍 방법을 다루고 있으며, 향후 디지털라디오 서비스의 개선을 달성하고자 한다. Previously, there was DAB (Digital Audio Broadcasting) transmission method for digital radio service. The DAB + transmission method, which has been introduced since then, is a way to provide better quality digital radio service by improving the audio codec technology used in DAB. The present invention deals with a bitstream structure and a framing method necessary to utilize the USAC audio codec technology, which is the latest codec, in DAB +, and aims to achieve improvement of digital radio service in the future.

본 발명은 디지털 라디오 서비스를 위한 USAC 오디오 신호 인코딩/디코딩 장치 및 방법에 관한 것으로, 기존의 DAB+에 추가적으로 USAC을 적용하기 위한 구문정보와 프레임 구조를 제공함으로써 USAC 기반의 DAB+ 서비스를 가능하게 하는 장치 및 방법을 제공한다.The present invention relates to an apparatus and method for encoding / decoding a USAC audio signal for digital radio service, and more particularly, to an apparatus and method for providing USAC-based DAB + service by providing syntax information and a frame structure for applying USAC to an existing DAB + ≪ / RTI >

본 발명의 일실시예에 따른 오디오 신호 인코딩 방법은 오디오 신호를 수신하는 단계; 상기 수신된 오디오 신호에 대한 코딩 방식을 결정하는 단계; 상기 결정된 코딩 방식에 기초하여 상기 오디오 신호를 인코딩하는 단계; 및 상기 오디오 신호를 인코딩한 결과 생성된 오디오 스트림을 고정된 크기의 오디오 슈퍼 프레임으로 구성하는 단계를 포함하고, 상기 코딩 방식은 Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 코딩 방식과 기존의 AAC 계열의 제2 코딩 방식을 포함할 수 있다.According to another aspect of the present invention, there is provided an audio signal encoding method comprising: receiving an audio signal; Determining a coding scheme for the received audio signal; Encoding the audio signal based on the determined coding scheme; And configuring an audio stream generated as a result of encoding the audio signal into an audio superframe of a fixed size, wherein the coding scheme includes a first coding scheme of an Extended HE-AAC (High Efficiency Advanced Audio Codec) Lt; RTI ID = 0.0 > AAC < / RTI >

상기 수신하는 단계는 상기 수신된 오디오 신호의 종류가 멀티채널 오디오 신호인지 또는 모노/스테레오 오디오 신호인지 판단하는 단계; 및 상기 수신된 오디오 신호가 멀티채널 오디오 신호로 판단되면 MPS 인코딩을 수행하는 단계를 더 포함할 수 있다.Determining whether the type of the received audio signal is a multi-channel audio signal or a mono / stereo audio signal; And performing MPS encoding if the received audio signal is determined to be a multi-channel audio signal.

상기 인코딩하는 단계는 상기 수신된 오디오 신호에 대한 코딩 방식이 제1 코딩 방식으로 결정된 경우, 상기 수신된 오디오 신호에 대해 MPS212를 수행하는 단계; 상기 MPS212를 수행한 결과 출력된 오디오 신호에 대해서 eSBR을 수행하는 단계; 및 상기 eSBR을 수행한 결과 출력된 오디오 신호에 대해서 코어 인코딩을 수행하는 단계를 포함할 수 있다.Wherein the encoding comprises: performing an MPS 212 on the received audio signal if the coding scheme for the received audio signal is determined to be a first coding scheme; Performing eSBR on the output audio signal as a result of performing the MPS 212; And performing core encoding on the audio signal output as a result of performing the eSBR.

상기 인코딩하는 단계는 상기 수신된 오디오 신호에 대한 코딩 방식이 제2 코딩 방식으로 결정된 경우, 상기 수신된 오디오 신호에 대해 PS/SBR을 수행하는 단계; 및 상기 PS/SBR을 수행한 결과 출력된 오디오 신호에 대해 제2 코딩 방식을 이용하여 인코딩을 수행하는 단계를 포함할 수 있다.Performing the PS / SBR on the received audio signal when the coding scheme for the received audio signal is determined to be the second coding scheme; And encoding the audio signal output from the PS / SBR using a second coding scheme.

상기 오디오 슈퍼 프레임은 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성될 수 있다.The audio superframe includes a header section including information on a boundary number of audio frames included in the audio superframe and information on a reservoir fill level of a first audio frame, A payload section including bit information of audio frames, and a directory section including boundary position information of bitstreams per audio frame included in the audio superframe.

상기 오디오 슈퍼 프레임에 대한 순방향 에러 정정 기술을 적용하는 단계를 더 포함하고, 상기 적용하는 단계는 상기 구성된 오디오 슈퍼 프레임이 통신 선로상에 전송되는 과정에서 발생한 비트 오류를 정정할 수 있다.Further comprising applying a forward error correction technique for the audio super frame, wherein the applying step corrects a bit error generated in the process of transmitting the configured audio super frame on the communication line.

본 발명의 일실시예에 따른 오디오 신호 인코딩 장치는 오디오 신호를 수신하는 수신부; 상기 수신된 오디오 신호에 대한 코딩 방식을 결정하는 결정부; 상기 결정된 코딩 방식에 기초하여 상기 오디오 신호를 인코딩하는 인코딩부; 및 상기 오디오 신호를 인코딩한 결과 생성된 오디오 스트림을 고정된 크기의 오디오 슈퍼 프레임으로 구성하는 구성부를 포함하고, 상기 코딩 방식은 Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 코딩 방식과 기존의 AAC 계열의 제2 코딩 방식을 포함할 수 있다.An apparatus for encoding an audio signal according to an embodiment of the present invention includes: a receiver for receiving an audio signal; A determining unit determining a coding scheme for the received audio signal; An encoding unit encoding the audio signal based on the determined coding scheme; And a configuration unit configured to convert the audio stream generated as a result of encoding the audio signal into an audio superframe of a fixed size, wherein the coding scheme includes a first coding scheme of an Extended HE-AAC (High Efficiency Advanced Audio Codec) Lt; RTI ID = 0.0 > AAC < / RTI >

상기 인코딩부는 상기 수신된 오디오 신호에 대한 코딩 방식이 제1 코딩 방식으로 결정된 경우, 상기 수신된 오디오 신호에 대해 MPS212를 수행하고, 상기 MPS212를 수행한 결과 출력된 오디오 신호에 대해서 eSBR을 수행하며, 상기 출력된 오디오 신호에 대해서 eSBR을 수행한 결과 출력된 오디오 신호에 대해서 코어 인코딩을 수행할 수 있다.If the coding scheme for the received audio signal is determined to be the first coding scheme, the encoder performs MPS 212 on the received audio signal, performs eSBR on the audio signal output as a result of performing the MPS 212, Core encoding can be performed on the audio signal output as a result of performing eSBR on the output audio signal.

상기 인코딩부는 상기 수신된 오디오 신호에 대한 코딩 방식이 제2 코딩 방식으로 결정된 경우, 상기 수신된 오디오 신호에 대해 PS/SBR을 수행하고, 상기 PS/SBR을 수행한 결과 출력된 오디오 신호에 대해 제2 코딩 방식을 이용하여 인코딩을 수행할 수 있다.Wherein the encoding unit performs PS / SBR on the received audio signal when the coding scheme for the received audio signal is determined to be the second coding scheme, performs a PS / SBR on the received audio signal, 2 coding scheme can be used to perform encoding.

상기 오디오 슈퍼 프레임은 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성될 수 있다.The audio superframe includes a header section including information on a boundary number of audio frames included in the audio superframe and information on a reservoir fill level of a first audio frame, A payload section including bit information of audio frames, and a directory section including boundary position information of bitstreams per audio frame included in the audio superframe.

본 발명의 일실시예에 따른 오디오 신호 디코딩 방법은 오디오 슈퍼 프레임을 수신하는 단계; 상기 수신된 오디오 슈퍼 프레임으로부터 오디오 신호에 대한 디코딩 방식을 결정하는 단계; 및 상기 결정된 디코딩 방식에 기초하여 상기 오디오 슈퍼 프레임을 디코딩하는 단계를 포함하고, 상기 디코딩 방식은 상기 Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 디코딩 방식과 기존의 AAC 계열의 제2 디코딩 방식을 포함할 수 있다.According to another aspect of the present invention, there is provided an audio signal decoding method comprising: receiving an audio superframe; Determining a decoding scheme for an audio signal from the received audio superframe; And decoding the audio superframe based on the determined decoding scheme, wherein the decoding method includes a first decoding method of the Extended HE-AAC (Advanced Efficient Advanced Audio Codec) and a second decoding of the existing AAC sequence Method.

상기 결정하는 단계는 상기 수신된 오디오 슈퍼 프레임으로부터 디코딩 파라미터를 추출하는 단계; 및 상기 추출된 디코딩 파라미터에 기초하여 제1 디코딩 방식 및 제2 디코딩 방식 중 적어도 하나의 디코딩 방식을 결정하는 단계를 포함할 수 있다.Wherein the determining comprises: extracting decoding parameters from the received audio superframe; And determining at least one of a first decoding method and a second decoding method based on the extracted decoding parameter.

상기 디코딩 파라미터는 오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 따라 자동적으로 결정되고, 상기 사용자 파라미터는 상기 오디오 신호에 대한 코덱의 비트율 정보, 상기 오디오 신호의 레이아웃 타입 정보 및 상기 오디오 신호에 대한 MPEG Surround 사용 여부 정보 중 적어도 하나의 정보를 포함할 수 있다.Wherein the decoding parameters are automatically determined according to a user parameter required when encoding an audio signal, the user parameters including bit rate information of a codec for the audio signal, layout type information of the audio signal, and MPEG Surround usage And information on at least one of the information.

상기 디코딩하는 단계는 상기 수신된 오디오 슈퍼 프레임에 대한 디코딩 방식이 제1 디코딩 방식으로 결정된 경우, 상기 수신된 오디오 슈퍼 프레임에 대해 코어 디코딩을 수행하는 단계; 상기 코어 디코딩이 수행된 결과 출력된 오디오 신호에 대해서 eSBR을 수행하는 단계; 및 상기 eSBR을 수행한 결과 출력된 오디오 신호에 대해서 MPS212를 수행하는 단계를 포함할 수 있다.Wherein the decoding comprises: performing core decoding on the received audio superframe when the decoding scheme for the received audio superframe is determined to be a first decoding scheme; Performing eSBR on an audio signal output as a result of performing core decoding; And performing the MPS 212 on the audio signal output as a result of performing the eSBR.

상기 디코딩하는 단계는 상기 수신된 오디오 슈퍼 프레임에 대한 디코딩 방식이 제2 디코딩 방식으로 결정된 경우, 상기 수신된 오디오 슈퍼 프레임에 대해 제2 디코딩 방식을 이용하여 디코딩을 수행하는 단계; 및 상기 제2 디코딩 방식이 수행된 결과 출력된 오디오 신호에 대해 PS/SBR을 수행하는 단계를 포함할 수 있다.Wherein the decoding comprises decoding the received audio superframe using a second decoding scheme when the decoding scheme for the received audio superframe is determined to be a second decoding scheme; And performing PS / SBR on the audio signal output as a result of performing the second decoding scheme.

상기 오디오 슈퍼 프레임은 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성될 수 있다.The audio superframe includes a header section including information on a boundary number of audio frames included in the audio superframe and information on a reservoir fill level of a first audio frame, A payload section including bit information of audio frames, and a directory section including boundary position information of bitstreams per audio frame included in the audio superframe.

본 발명의 일실시예에 따른 오디오 신호 디코딩 장치는 오디오 슈퍼 프레임을 수신하는 수신부; 상기 수신된 오디오 슈퍼 프레임으로부터 오디오 신호에 대한 디코딩 방식을 결정하는 결정부; 및 상기 결정된 디코딩 방식에 기초하여 상기 오디오 슈퍼 프레임을 디코딩하는 디코딩부를 포함하고, 상기 디코딩 방식은 상기 Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 디코딩 방식과 기존의 AAC 계열의 제2 디코딩 방식을 포함할 수 있다.An apparatus for decoding an audio signal according to an exemplary embodiment of the present invention includes a receiver for receiving an audio superframe; A determining unit for determining a decoding scheme for an audio signal from the received audio super frame; And a decoding unit decoding the audio superframe based on the determined decoding scheme, wherein the decoding scheme includes a first decoding scheme of the Extended HE-AAC (Advanced Efficient Advanced Audio Codec) and a second decoding scheme of the existing AAC sequence Method.

상기 결정부는 상기 수신된 오디오 슈퍼 프레임으로부터 디코딩 파라미터를 추출하고, 상기 추출된 디코딩 파라미터에 기초하여 제1 디코딩 방식 및 제2 디코딩 방식 중 적어도 하나의 디코딩 방식을 결정할 수 있다.The determining unit may extract a decoding parameter from the received audio superframe and determine at least one of a first decoding method and a second decoding method based on the extracted decoding parameter.

상기 디코딩 파라미터는 오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 따라 자동적으로 결정되고, 상기 사용자 파라미터는 상기 오디오 신호에 대한 코덱의 비트율 정보, 상기 오디오 신호의 레이아웃 타입 정보 및 상기 오디오 신호에 대한 MPEG Surround 사용 여부 정보 중 적어도 하나의 정보를 포함할 수 있다.Wherein the decoding parameters are automatically determined according to a user parameter required when encoding an audio signal, the user parameters including bit rate information of a codec for the audio signal, layout type information of the audio signal, and MPEG Surround usage And information on at least one of the information.

본 발명의 일실시예에 의하면, 기존의 DAB+에 추가적으로 USAC을 적용하기 위한 구문정보와 프레임 구조를 제공함으로써 USAC 기반의 DAB+ 서비스를 가능하게 할 수 있다.According to an embodiment of the present invention, USAC-based DAB + services can be enabled by providing syntax information and a frame structure for applying USAC in addition to the existing DAB +.

도 1은 본 발명의 일실시예에 따른 Extended HE-AAC(xHE-AAC)의 인코딩 시스템 구조를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 인코딩 장치를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 Extended HE-AAC(xHE-AAC)의 디코딩 시스템 구조를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 디코딩 장치를 도시한 도면이다.
도 5는 본 발명의 일실시예에 따른 xHE-AAC 슈퍼 프레임의 구조의 예를 도시한 도면이다.
도 6은 본 발명의 일실시예에 따른 복수의 xHE-AAC 오디오 프레임의 슈퍼 프레임 유료부하 구성의 예를 도시한 도면이다.
1 is a diagram illustrating an encoding system structure of an Extended HE-AAC (xHE-AAC) according to an embodiment of the present invention.
2 is a diagram illustrating an encoding apparatus according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating a decoding system structure of Extended HE-AAC (xHE-AAC) according to an embodiment of the present invention.
4 is a diagram illustrating a decoding apparatus according to an embodiment of the present invention.
5 is a diagram illustrating an example of a structure of an xHE-AAC super frame according to an embodiment of the present invention.
6 is a diagram illustrating an example of a superframe payload configuration of a plurality of xHE-AAC audio frames according to an embodiment of the present invention.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. However, it is not intended to limit the embodiments according to the concepts of the present invention to the specific disclosure forms, but includes changes, equivalents, or alternatives falling within the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, for example, "between" and "immediately" or "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises ", or" having ", and the like, are used to specify one or more of the features, numbers, steps, operations, elements, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

이하 본 발명의 구성 설명에서는 USAC의 명칭 대신에 Extended HE-AAC(xHE-AAC)라는 명칭을 활용하도록 하겠다. 이는 USAC이 실제로 xHE-AAC 프로파일에 정의되어 있으며, xHE-AAC 프로파일을 활용하면 USAC과 HE-AACv2를 동시에 지원할 수 있기 때문이다. 따라서 본 명세서에서는 xHE-AAC를 USAC으로 간주하면 된다.In the description of the present invention, the name of Extended HE-AAC (xHE-AAC) will be used instead of the name of USAC. This is because USAC is actually defined in the xHE-AAC profile and can utilize the xHE-AAC profile to support USAC and HE-AACv2 simultaneously. Therefore, in the present specification, xHE-AAC is regarded as USAC.

도 1은 본 발명의 일실시예에 따른 Extended HE-AAC(xHE-AAC)의 인코딩 시스템 구조를 도시한 도면이다.1 is a diagram illustrating an encoding system structure of an Extended HE-AAC (xHE-AAC) according to an embodiment of the present invention.

xHE-AAC 오디오 스트림을 DAB망을 통해 전송하기 위해서는 xHE-AAC 오디오 코덱에 대한 파라미터의 범위와 특성에 맞는 프로파일이 정의되어야 한다. 또한 압축된 xHE-AAC 오디오 스트림을 DAB 주 서비스 채널을 통해 다중화하여 전송하고자 할 경우 xHE-AAC 인코딩 장치는 압축된 xHE-AAC 오디오 스트림을 오디오 슈퍼 프레임으로 구성하여 실제 전송 조건에 맞도록 전송해야 한다. In order to transmit the xHE-AAC audio stream through the DAB network, a profile corresponding to the range and characteristics of parameters for the xHE-AAC audio codec must be defined. In addition, when the compressed xHE-AAC audio stream is to be multiplexed and transmitted through the DAB main service channel, the xHE-AAC encoding apparatus should configure the compressed xHE-AAC audio stream as an audio superframe and transmit it according to the actual transmission conditions .

또한 본 발명의 인코딩 장치는 xHE-AAC 오디오 스트림의 강건한 전송을 보장하기 위해 별도의 순방향 에러 정정 기술(Forward Error Correction, FEC)을 적용해야 하며 xHE-AAC 디코딩 장치는 HE-AAC v2를 적용하는 DAB+ 오디오 스트림의 디코딩 기능을 지원하여야 한다.In addition, the encoding apparatus of the present invention should apply a separate forward error correction (FEC) technique to ensure robust transmission of the xHE-AAC audio stream, and the xHE-AAC decoding apparatus should use a DAB + It should support decoding function of audio stream.

xHE-AAC의 인코딩 시스템 구조는 도 1과 같이 도시할 수 있다. 오디오 신호는 xHE-AAC 코딩 방식(제1 코딩 방식)과 기존의 AAC 계열의 코딩 방식(제2 코딩 방식)의 선택적 구조를 통해 인코딩 과정을 거칠 수 있다. 먼저 인코딩 시스템 구조는 미리 설정된 조건에 따라 오디오 신호에 대한 코딩 방식을 결정하고, 결정된 코딩 방식에 기초하여 오디오 신호를 인코딩할 수 있다.The encoding system structure of xHE-AAC can be shown in Fig. The audio signal can be encoded through an optional structure of an xHE-AAC coding scheme (first coding scheme) and a conventional AAC scheme coding scheme (second coding scheme). First, the encoding system structure may determine a coding scheme for an audio signal according to preset conditions, and may encode an audio signal based on the determined coding scheme.

이때, 인코딩 시스템 구조는 오디오 신호의 종류가 멀티채널 오디오 신호인지 또는 모노/스테레오 신호인지를 판단하고, 만약 오디오 신호가 멀티채널 오디오 신호로 판단되면 MSP(MPEG Surround) 인코딩을 먼저 수행할 수 있다. 이후 인코딩 시스템 구조는 MPS 인코딩을 수행하여 출력된 모노 또는 스테레오 오디오 신호에 대해서 인코딩 과정을 수행할 수 있다. At this time, the encoding system structure determines whether the type of the audio signal is a multi-channel audio signal or a mono / stereo signal. If the audio signal is determined to be a multi-channel audio signal, MSP (MPEG Surround) encoding can be performed first. The encoding system structure may then perform the MPS encoding and the encoding process for the output mono or stereo audio signal.

인코딩 시스템 구조는 만약 오디오 신호에 대한 코딩 방식이 제1 코딩 방식으로 결정된 경우, 수신된 오디오 신호에 대해 MPS212를 수행하고, MPS212를 수행한 결과 출력된 오디오 신호에 대해서 eSBR(enhanced Spectral band replication)을 수행하며, eSBR을 수행한 결과 출력된 오디오 신호에 대해서 코어 인코딩을 수행할 수 있다.When the coding scheme for the audio signal is determined to be the first coding scheme, the encoding system structure performs MPS 212 on the received audio signal, performs enhanced spectral band replication (eSBR) on the audio signal output as a result of performing MPS 212 And core encoding can be performed on the output audio signal as a result of performing eSBR.

또한, 인코딩 시스템 구조는 만약 오디오 신호에 대한 코딩 방식이 제2 코딩 방식으로 결정된 경우, 수신된 오디오 신호에 대해 PS(Parametric Stereo)/SBR(Spectral Band Replication)을 수행하고, PS/SBR을 수행한 결과 출력된 오디오 신호에 대해 제2 코딩 방식을 이용하여 인코딩을 수행할 수 있다.In addition, when the coding scheme for the audio signal is determined to be the second coding scheme, the encoding system structure performs PS (Spectral Band Replication) / PSBR (SBR) on the received audio signal, performs PS / SBR And the encoding is performed using the second coding scheme for the output audio signal.

xHE-AAC 코딩 방식의 구성요소는 AAC 계열의 코딩 툴과 마찬가지로, SBR, 스테레오 코딩 툴을 포함하고 있으나 독립적인 개정안으로 표준이 진행되지 않고 xHE-AAC 표준기술에 모두 포함되어 있으므로 하나의 xHE-AAC 인코딩 블록(110)으로 표현하는 것이 적절하다. 스테레오 코딩 툴에 차이가 있다면, 기존의 AAC 계열의 코딩 툴은 PS 코딩 방식을 활용하고 있으나, xHE-AAC는 스테레오 버전의 MPS212를 활용하여 보다 향상된 스테레오 음질을 제공할 수 있다는 점이다. xHE-AAC 코딩 방식의 SBR 모듈도 몇 가지 기능이 추가되어 eSBR(enhanced SBR)로 정의되어 활용되고 있다. The components of the xHE-AAC coding scheme, like the AAC-based coding tools, include SBR and stereo coding tools. However, since the standard is not an independent revision draft but is included in the xHE-AAC standard technology, It is appropriate to represent it as an encoding block 110. [ If there is a difference in the stereo coding tools, the existing AAC-based coding tools utilize the PS coding method, but the xHE-AAC can utilize the stereo version of the MPS212 to provide better stereo sound quality. The SBR module of xHE-AAC coding method is also defined as eSBR (enhanced SBR) by adding several functions.

도 2는 본 발명의 일실시예에 따른 인코딩 장치를 도시한 도면이다.2 is a diagram illustrating an encoding apparatus according to an embodiment of the present invention.

본 발명의 일실시예에 따른 인코딩 장치(200)는 수신부(210), 결정부(220), 인코딩부(230) 및 구성부(240)로 구성될 수 있다. 수신부(210)는 인코딩하고자 하는 오디오 신호를 수신할 수 있다. 이때, 수신부(210)로 수신되는 오디오 신호는 멀티채널 오디오 신호 또는 모노/스테레오 오디오 신호일 수 있다. The encoding apparatus 200 according to an exemplary embodiment of the present invention may include a receiving unit 210, a determining unit 220, an encoding unit 230, and a configuration unit 240. The receiving unit 210 may receive an audio signal to be encoded. At this time, the audio signal received by the receiving unit 210 may be a multi-channel audio signal or a mono / stereo audio signal.

수신부(210)는 수신된 오디오 신호의 종류가 멀티채널 오디오 신호 인지 또는 모노/스테레오 오디오 신호인지를 판단할 수 있다. 이때, 수신부(210)는 수신된 오디오 신호를 멀티채널 오디오 신호로 판단한 경우, MPS 인코딩을 수행하여 멀티채널 오디오 신호를 모노 또는 스테레오 오디오 신호로 변환할 수 있다.The receiving unit 210 may determine whether the type of the received audio signal is a multi-channel audio signal or a mono / stereo audio signal. At this time, when the receiving unit 210 determines that the received audio signal is a multi-channel audio signal, the receiving unit 210 may perform MPS encoding to convert the multi-channel audio signal into a mono or stereo audio signal.

결정부(220)부는 수신부(210)를 통해 수신된 오디오 신호에 대한 코딩 방식을 결정할 수 있다. 이때, 코딩 방식은 Extended HE-AAC(xHE-AAC)의 제1 코딩 방식과 기존의 AAC 계열의 제2 코딩 방식을 포함할 수 있다.The determining unit 220 may determine a coding scheme for the audio signal received through the receiving unit 210. At this time, the coding scheme may include a first coding scheme of Extended HE-AAC (xHE-AAC) and a second coding scheme of an existing AAC sequence.

인코딩부(230)는 결정부(220)에서 결정된 코딩 방식에 기초하여 수신된 오디오 신호를 인코딩 할 수 있다. 예를 들어, 수신된 오디오 신호에 대한 코딩 방식이 제1 코딩 방식으로 결정된 경우, 인코딩부(230)는 수신된 오디오 신호에 대해 MPS212를 수행하고, MPS212를 수행한 결과 출력된 오디오 신호에 대해서 eSBR(enhanced Spectral band replication)을 수행하며, eSBR을 수행한 결과 출력된 오디오 신호에 대해서 코어 인코딩을 수행할 수 있다.The encoding unit 230 may encode the received audio signal based on the coding scheme determined by the determining unit 220. [ For example, when the coding scheme for the received audio signal is determined to be the first coding scheme, the encoding unit 230 performs the MPS 212 on the received audio signal, performs eSBR on the audio signal output as a result of performing the MPS 212, (enhanced spectral band replication), and core encoding can be performed on the output audio signal as a result of performing eSBR.

다른 경우에 만약 수신된 오디오 신호에 대한 코딩 방식이 제2 코딩 방식으로 결정된 경우, 인코딩부(230)는 수신된 오디오 신호에 대해 PS(Parametric Stereo)/SBR(Spectral Band Replication)을 수행하고, PS/SBR을 수행한 결과 출력된 오디오 신호에 대해 제2 코딩 방식을 이용하여 인코딩을 수행할 수 있다.In other cases, if the coding scheme for the received audio signal is determined to be the second coding scheme, the encoding unit 230 performs PS (Spectral Band Replication) / SBR (Spectral Band Replication) on the received audio signal, / SBR, encoding can be performed on the output audio signal using the second coding scheme.

구성부(240)는 수신된 오디오 신호를 인코딩한 결과 생성된 오디오 스트림을 고정된 크기의 오디오 슈퍼 프레임으로 구성할 수 있다. 이때, 제1 코딩 방식으로 인코딩된 오디오 스트림은 다수의 프레임이 경계구분 없이 하나의 오디오 슈퍼 프레임으로 구성되어 전송될 수 있다. The configuration unit 240 may configure the audio stream generated as a result of encoding the received audio signal into an audio super frame of a fixed size. At this time, the audio stream encoded in the first coding scheme can be transmitted in a plurality of frames composed of one audio super frame without boundaries.

적용부(미도시)는 오디오 슈퍼 프레임에 대한 순방향 에러 정정 기술을 적용할 수 있다. 이때, 적용부는 구성된 오디오 슈퍼 프레임이 통신 선로상에 전송되는 과정에서 발생한 비트 오류를 정정할 수 있다.The application (not shown) may apply the forward error correction technique for the audio super frame. At this time, the application unit can correct a bit error generated in the process of transmitting the configured audio super frame on the communication line.

도 3은 본 발명의 일실시예에 따른 Extended HE-AAC(xHE-AAC)의 디코딩 시스템 구조를 도시한 도면이다.FIG. 3 is a diagram illustrating a decoding system structure of Extended HE-AAC (xHE-AAC) according to an embodiment of the present invention.

xHE-AAC 규격은 총 4개의 프로파일 레벨(Level)로 정의되어 있으며, 모든 프로파일 레벨은 USAC 프로파일 레벨 2를 포함하고 있다. USAC 프로파일 레벨 2는 모노와 스테레오 신호에 대한 디코딩 기능을 지원하는 프로파일이다. 따라서 xHE-AAC 규격은 모노 및 스테레오 오디오 신호에 대해서 USAC으로 디코딩할 수 있어야 한다. 본 전송 규격에서는 xHE-AAC 프로파일 레벨 2만을 지원하는 것으로 한다. The xHE-AAC specification is defined as a total of four profile levels, and all profile levels include USAC profile level 2. USAC Profile Level 2 is a profile that supports decoding for mono and stereo signals. Therefore, the xHE-AAC standard must be capable of decoding USAC for mono and stereo audio signals. In this transmission specification, it is assumed that only xHE-AAC profile level 2 is supported.

즉, 본 발명에 따른 디코딩 시스템 구조는 USAC의 모노 및 스테레오 오디오 신호에 대한 비트스트림을 디코딩할 수 있어야 하며, 동시에 HE-AAC v2의 모노 및 스테레오 오디오 신호에 대한 비트스트림에 대해서 디코딩을 수행할 수 있어야 한다. 다채널 신호에 대한 지원은 MPEG Surround 기술을 활용함으로써, 모노 및 스테레오 오디오 신호에 대한 하위호환성을 유지 시킬 수 있다.That is, the decoding system structure according to the present invention should be able to decode a bit stream for mono and stereo audio signals of USAC, and at the same time to decode a bit stream for mono and stereo audio signals of HE-AAC v2 . Support for multi-channel signals can be maintained with backward compatibility with mono and stereo audio signals by utilizing MPEG Surround technology.

xHE-AAC의 디코딩 시스템 구조는 도 3과 같이 도시할 수 있다. 디코딩 시스템 구조로 수신된 오디오 수퍼 프레임은 xHE-AAC 코딩 방식(제1 코딩 방식)과 기존의 AAC 계열의 코딩 방식(제2 코딩 방식)의 선택적 구조를 통해 디코딩 과정을 거칠 수 있다. 먼저 디코딩 시스템은 수신된 오디오 슈퍼 프레임으로부터 디코딩 파라미터를 추출하고, 추출된 디코딩 파라미터에 기초하여 디코딩 방식을 결정할 수 있다. 미리 설정된 조건에 따라 오디오 신호에 대한 코딩 방식을 결정하고, 결정된 코딩 방식에 기초하여 오디오 신호를 인코딩할 수 있다.The decoding system structure of xHE-AAC can be shown in Fig. The audio superframe received in the decoding system structure can be decoded through an optional structure of the xHE-AAC coding scheme (first coding scheme) and the existing AAC scheme coding scheme (second coding scheme). First, the decoding system may extract the decoding parameters from the received audio superframe and determine a decoding scheme based on the extracted decoding parameters. The coding scheme for the audio signal may be determined according to a preset condition, and the audio signal may be encoded based on the determined coding scheme.

이때, 추출되는 디코딩 파라미터는 오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 따라 자동적으로 결정될 수 있다. 사용자 파라미터는 오디오 신호에 대한 코덱의 비트율 정보, 오디오 신호의 레이아웃 타입 정보 및 오디오 신호에 대한 MPEG Surround 사용 여부 정보 중 적어도 하나의 정보를 포함할 수 있다.At this time, the extracted decoding parameter may be automatically determined according to a user parameter required when encoding an audio signal. The user parameter may include at least one of bit rate information of a codec for an audio signal, layout type information of an audio signal, and information on whether to use MPEG Surround for an audio signal.

디코딩 시스템 구조는 만약 오디오 슈퍼 프레임에 대한 코딩 방식이 제1 디코딩 방식으로 결정된 경우, 수신된 오디오 슈퍼 프레임에 대해 코어 디코딩을 수행하고, 코어 디코딩이 수행된 결과 출력된 오디오 신호에 대해서 eSBR을 수행하며, eSBR을 수행한 결과 출력된 오디오 신호에 대해서 MPS212를 수행할 수 있다.The decoding system structure performs core decoding on the received audio superframe if the coding scheme for the audio superframe is determined by the first decoding scheme, performs eSBR on the output audio signal as a result of performing core decoding, , and the MPS 212 can be performed on the output audio signal as a result of performing eSBR.

또한, 디코딩 시스템 구조는 만약 수신된 오디오 슈퍼 프레임에 대한 디코딩 방식이 제2 디코딩 방식으로 결정된 경우, 수신된 오디오 슈퍼 프레임에 대해 제2 디코딩 방식을 이용하여 디코딩을 수행하고, 제2 디코딩 방식이 수행된 결과 출력된 오디오 신호에 대해 PS/SBR을 수행할 수 있다. In addition, if the decoding scheme for the received audio superframe is determined to be the second decoding scheme, the decoding system structure may perform decoding using the second decoding scheme for the received audio superframe, PS / SBR can be performed on the output audio signal.

이때, 디코딩 시스템 구조는 수신된 오디오 슈퍼 프레임에 대한 디코딩을 수행한 결과 출력된 오디오 신호가 멀티채널 오디오 신호이거나 다채널을 위한 바이노럴 스테레오 신호인지를 판단하고, 만약 오디오 신호가 멀티채널 오디오 신호이거나 다채널을 위한 바이노럴 스테레오 신호로 판단되면 MPS 디코딩을 수행할 수 있다.At this time, the decoding system structure decodes the received audio superframe to determine whether the output audio signal is a multi-channel audio signal or a binaural stereo signal for multiple channels. If the audio signal is a multi- Or a binaural stereo signal for multi-channel, MPS decoding can be performed.

도 4는 본 발명의 일실시예에 따른 디코딩 장치를 도시한 도면이다.4 is a diagram illustrating a decoding apparatus according to an embodiment of the present invention.

본 발명의 일실시예에 따른 디코딩 장치(400)는 수신부(410), 추출부(420) 및 디코딩부(430)으로 구성될 수 있다. 수신부(410)는 디코딩하고자 하는 오디오 슈퍼 프레임을 수신할 수 있다. 이때, 수신부(410)가 수신하는 오디오 슈퍼 프레임은 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성될 수 있다.The decoding apparatus 400 according to an embodiment of the present invention may include a receiving unit 410, an extracting unit 420, and a decoding unit 430. The receiving unit 410 may receive the audio superframe to be decoded. At this time, the audio superframe received by the receiver 410 includes a header section including information on the number of boundaries of audio frames included in the audio superframe and information on a reservoir fill level of the first audio frame, A payload section including bit information of audio frames included in the audio superframe, and a directory section including boundary position information of bitstreams per audio frame included in the audio superframe.

추출부(420)는 수신부(410)를 통해 수신된 오디오 슈퍼 프레임으로부터 해당 오디오 슈퍼 프레임을 디코딩하기 위한 디코딩 파라미터를 추출할 수 있다. 이때, 추출부(420)를 통해 추출되는 디코딩 파라미터는 오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 따라 자동적으로 결정될 수 있으며, 사용자 파라미터는 오디오 신호에 대한 코덱의 비트율 정보, 오디오 신호의 레이아웃 타입 정보 및 오디오 신호에 대한 MPEG Surround 사용 여부 정보 중 적어도 하나의 정보를 포함할 수 있다.The extraction unit 420 may extract a decoding parameter for decoding the audio superframe from the audio superframe received through the receiving unit 410. [ At this time, the decoding parameters extracted through the extracting unit 420 may be automatically determined according to the user parameters required when encoding the audio signal. The user parameters include bit rate information of the codec for the audio signal, layout type information of the audio signal, And information on whether to use MPEG Surround for audio signals.

디코딩부(430)는 추출부(420)를 통해 추출된 디코딩 파라미터에 기초하여 수신된 오디오 슈퍼 프레임을 디코딩 할 수 있다. 만약 수신된 오디오 슈퍼 프레임에 대한 코딩 방식이 제1 디코딩 방식으로 결정된 경우, 디코딩부(430)는 수신된 오디오 슈퍼 프레임에 대해 코어 디코딩을 수행하고, 코어 디코딩이 수행된 결과 출력된 오디오 신호에 대해서 eSBR을 수행하며, eSBR을 수행한 결과 출력된 오디오 신호에 대해서 MPS212를 수행할 수 있다.The decoding unit 430 may decode the received audio superframe based on the decoding parameters extracted through the extraction unit 420. [ If the coding scheme for the received audio super frame is determined to be the first decoding scheme, the decoding unit 430 performs core decoding on the received audio super frame, and outputs eSBR is performed, and the MPS 212 can be performed on the output audio signal as a result of performing eSBR.

이와는 달리 만약 수신된 오디오 슈퍼 프레임에 대한 디코딩 방식이 제2 디코딩 방식으로 결정된 경우, 디코딩부(430)는 수신된 오디오 슈퍼 프레임에 대해 제2 디코딩 방식을 이용하여 디코딩을 수행하고, 제2 디코딩 방식이 수행된 결과 출력된 오디오 신호에 대해 PS/SBR을 수행할 수 있다.On the other hand, if the decoding scheme for the received audio superframe is determined to be the second decoding scheme, the decoding unit 430 performs decoding using the second decoding scheme for the received audio superframe, As a result, the PS / SBR can be performed on the output audio signal.

제1 코딩 방식으로 인코딩된 오디오 스트림은 다수의 프레임이 경계구분 없이 하나의 오디오 슈퍼 프레임으로 구성되어 전송될 수 있다.An audio stream encoded in the first coding scheme can be transmitted in a plurality of frames composed of one audio super frame without boundaries.

[표 1][Table 1]

Figure pat00001
Figure pat00001

따라서, 전송된 오디오 슈퍼 프레임을 해석하기에 앞서, 기본적인 전송 오디오 프레임에 대한 구문 정보를 추출하여야 한다. 상기의 표 1은 이를 나타내는 구문정보를 포함하는 구문함수 이다.Therefore, prior to interpreting the transmitted audio superframe, syntax information for the basic transmitted audio frame should be extracted. Table 1 above is a syntax function including syntax information indicating this.

[표 2][Table 2]

Figure pat00002
Figure pat00002

상기의 표 2는 전송 오디오 프레임을 생성하는데 이용된 오디오 코덱의 방식을 제공한다. 이때, 전송 오디오 프레임은 오디오 코딩의 방식을 2bit를 통해 표현할 수 있다.Table 2 above provides a scheme of the audio codec used to generate the transmitted audio frames. At this time, the transmission audio frame can express the audio coding scheme through 2 bits.

예를 들어, 표 2에서와 같이 전송 오디오 프레임은 표현되는 2bit가 00일 경우 기존의 AAC 계열의 코딩 방식을 이용하여 인코딩되었다는 것을 나타내고, 11일 경우 xHE-AAC 코딩 방식을 이용하여 인코딩되었다는 것을 나타낼 수 있다. 따라서, 해당하는 전송 오디오 프레임을 디코딩하는 경우 본 구문 정보로부터 기존의 AAC 계열의 코딩 방식 또는 xHE-AAC 코딩 방식의 디코딩 장치가 선택될 수 있다.For example, as shown in Table 2, the transmitted audio frame indicates that encoding is performed using the existing AAC sequence coding scheme when the 2 bits to be represented are 00, and the encoding is performed using the xHE-AAC coding scheme when the 11 bits are used . Therefore, when decoding the corresponding transmission audio frame, the decoding apparatus of the existing AAC sequence coding scheme or the xHE-AAC coding scheme can be selected from the syntax information.

[표 3][Table 3]

Figure pat00003
Figure pat00003

상기의 표 3은 전송 오디오 프레임이 xHE-AAC 코딩 방식의 디코딩 장치를 이용하여 디코딩하는 경우, 해당 전송 오디오 프레임에 대한 xHE-AAC의 프로파일(오디오 모드)을 나타내기 위한 구문 정보일 수 있다. 이때, 전송 오디오 프레임은 오디오 모드의 방식을 2bit를 통해 표현할 수 있다.Table 3 above may be syntax information for indicating a profile (audio mode) of xHE-AAC for a corresponding transport audio frame when a transport audio frame is decoded using a decoding apparatus of the xHE-AAC coding scheme. At this time, the transmission audio frame can express the mode of the audio mode through 2-bit.

예를 들어, 표 3에서와 같이 전송 오디오 프레임은 표현되는 2bit가 00인 경우 모노 오디오 신호에 대한 코딩 모드가 결정되고, 10인 경우 스테레오 오디오 신호에 대한 코딩 모드가 결정될 수 있다.For example, as shown in Table 3, the coding mode for the mono audio signal is determined when the 2-bit represented by the transmitted audio frame is 00, and the coding mode for the stereo audio signal is determined when the transmitted bit is 10.

[표 4] [Table 4]

Figure pat00004
Figure pat00004

상기의 표 4는 전송 오디오 프레임이 xHE-AAC 코딩 방식의 디코딩 장치를 이용하여 디코딩하는 경우, 해당 전송 오디오 프레임를 디코딩하기 위한 표본 주파수에 대한 구문 정보일 수 있다. 이때, 전송 오디오 프레임은 표본 주파수를 3bit를 통해 표현할 수 있다.Table 4 above may be syntax information for a sample frequency for decoding a transmission audio frame when the transmission audio frame is decoded using the decoding apparatus of the xHE-AAC coding scheme. At this time, the transmitted audio frame can represent the sampling frequency through 3 bits.

예를 들어, 표 4에서와 같이 전송 오디오 프레임의 표현되는 3bit가 000인 경우 xHE-AAC 코딩 방식의 디코딩 장치는 전송 오디오 프레임을 12Hz의 표본 주파수에 기초하여 디코딩을 수행할 수 있다. 또는 전송 오디오 프레임의 표현되는 3bit가 010인 경우 xHE-AAC 코딩 방식의 디코딩 장치는 전송 오디오 프레임을 24Hz의 표본 주파수에 기초하여 디코딩을 수행할 수 있다.For example, as shown in Table 4, when the 3 bits of the transmitted audio frame are 000, the decoding apparatus of the xHE-AAC coding scheme can perform decoding based on the sample frequency of 12 Hz. Or when the 3-bit represented by the transmitted audio frame is 010, the decoding apparatus of the xHE-AAC coding scheme can perform decoding based on the sampled frequency of 24 Hz of the transmitted audio frame.

[표 5][Table 5]

Figure pat00005
Figure pat00005

상기의 표 5는 전송 오디오 프레임이 xHE-AAC 코딩 방식의 디코딩 장치를 이용하여 디코딩하는 경우, 해당 전송 오디오 프레임이 xHE-AAC의 헤더정보를 포함하는지의 여부에 대한 구문 정보일 수 있다. 이때, 전송 오디오 프레임은 xHE-AAC의 헤더정보를 2bit를 통해 표현할 수 있다.Table 5 above may be syntax information on whether or not the transport audio frame includes header information of xHE-AAC when the transport audio frame is decoded using the decoding apparatus of the xHE-AAC coding scheme. At this time, the transmitted audio frame can express the header information of xHE-AAC through 2 bits.

예를 들어, 표 5에서와 같이 전송 오디오 프레임의 표현되는 2bit가 00인 경우 전송 오디오 프레임은 xHE-AAC의 헤더정보를 포함하고 있지 않고, 01인 경우 전송 오디오 프레임은 xHE-AAC의 헤더정보를 포함하는 것을 나타낼 수 있다.For example, as shown in Table 5, if the 2 bits represented by the transmitted audio frame are 00, the transmitted audio frame does not include the header information of the xHE-AAC. In the case of 01, the transmitted audio frame includes the header information of the xHE- May be included.

위에서 언급한 바와 같이 전송되는 오디오 프레임의 비트스트림 정보에 따라 디코딩 장치 및 관련 디코딩 파라미터가 결정되며, 이러한 디코딩 파라미터는 하기와 같이 오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 의해 자동으로 결정될 수 있다.As described above, the decoding apparatus and the related decoding parameters are determined according to the bitstream information of the transmitted audio frame, and such decoding parameters can be automatically determined by the user parameters required when encoding the audio signal as follows.

오디오 코덱 비트율: 전송환경에 따른 오디오 신호의 비트율 설정Audio codec bit rate: Bit rate setting of audio signal according to transmission environment

오디오 레이아웃 타입: 모노 오디오 신호 또는 스테레오 오디오 신호Audio layout type: mono audio signal or stereo audio signal

MPEG Surround 사용 여부: 멀티채널 서비스 및 스테레오 신호와 하위 호환성 제공Enable MPEG Surround: Provides backward compatibility with multi-channel services and stereo signals

단순히 방송사업자가 상기와 같은 사용자 파라미터를 입력하면 xHE-AAC 코딩 방식의 오디오 인코딩 장치는 자동적으로 인코딩을 위한 파라미터를 세팅할 수 있다. 대부분의 사용자 파라미터는 정적인 파라미터로 세팅되어 전송되며, 간혹 프레임 단위로 변경이 되는 사용자 파라미터도 존재한다. SBR의 Dynamic Config 정보가 그 예이나, 대부분의 사용자 파라미터는 정적으로 한 번 세팅되면 변경없이 그대로 활용될 수 있다. xHE-AAC 코딩 방식의 Static Config 정보는 다음과 같은 구문 함수로 정의될 수 있다. 다음은 방송 사업자가 세팅한 사용자 파라미터 정보부터 최적의 인코더 파라미터 값을 세팅하기 위해 정적으로 정의되는 구문 요소로 xHEAACStaticConfig()로부터 시작하여 각 구문 요소 정보로부터 디코더 파라미터 값을 추출할 수 있다. The audio encoding apparatus of the xHE-AAC coding scheme can automatically set the parameters for encoding when the broadcasting operator simply inputs the user parameters as described above. Most user parameters are set and transmitted as static parameters, and there are also user parameters that are changed frame by frame. SBR's Dynamic Config information is an example, but most user parameters can be used as they are once they are set statically. The Static Config information of the xHE-AAC coding scheme can be defined by the following syntax function. Next, a decoder parameter value can be extracted from each syntax element information starting from xHEAACStaticConfig () as a statically defined syntax element for setting an optimal encoder parameter value from the user parameter information set by the broadcasting company.

[표 6][Table 6]

Figure pat00006
Figure pat00006

표 6은 디코딩 장치의 형상을 결정하는 정보를 담고 있는 구문 함수일 수 있다. 본 함수를 시작으로 디코딩 장치의 형상이 세팅될 수 있다.Table 6 may be a syntax function containing information for determining the shape of the decoding apparatus. Starting from this function, the shape of the decoding device can be set.

[표 7][Table 7]

Figure pat00007
Figure pat00007

[표 8] [Table 8]

Figure pat00008
Figure pat00008

표 8은 모노 오디오 신호를 디코딩하기 위한 디코딩 장치의 세팅에 필요한 정보를 제공하는 구문함수일 수 있다. 이하 구문함수 및 정보는 xHE-AAC에 정의된 것들과 동일하다. UsacCoreConfig 함수는 xHE-AAC 코딩 방식에서 코어코딩에 해당되는 디코딩 장치를 구동하기 위해 필요한 구문정보를 불러올 수 있다. xHE-AAC 코딩 방식에서 음질에 주되게 영향을 미치는 noiseFilling 구문정보만 정의하며, 고도의 연산량을 필요로 하는 Time-warpping 툴(tw_mdct)는 사용하지 않는 것으로 정의한다.Table 8 may be a syntax function that provides information necessary for setting a decoding apparatus for decoding a mono audio signal. The following syntax functions and information are the same as those defined in xHE-AAC. The UsacCoreConfig function can call up syntax information necessary for driving the decoding apparatus corresponding to the core coding in the xHE-AAC coding scheme. Define only the noiseFilling syntax information that affects the sound quality in the xHE-AAC coding scheme, and define that the time-warpping tool (tw_mdct), which requires a high degree of computation, is not used.

[표 9][Table 9]

Figure pat00009
Figure pat00009

표 9는 스테레오 오디오 신호를 디코딩하기 위한 디코딩 장치의 세팅에 필요한 정보를 제공하는 구문함수일 수 있다.Table 9 may be a syntax function that provides information necessary for setting a decoding apparatus for decoding a stereo audio signal.

[표 10][Table 10]

Figure pat00010
Figure pat00010

표10은 xHE-AAC 코딩 방식에 대한 SBR 디코딩 장치의 형상을 정의하는 구문정보일 수 있다. 주된 성능 영향을 미치는 harmonicSBR은 전송되는 비트 정보로부터 구문정보를 파싱하여 활용하고, 성능에 크게 영향을 미치지 못하고 복잡도를 증가시키는 기타 툴들은 활용하지 않을 수 있다.(bs_interTes, bs_pvc 등)Table 10 may be syntax information defining the shape of the SBR decoding apparatus for the xHE-AAC coding scheme. HarmonicSBR, which affects the main performance, parses and uses syntax information from transmitted bit information, and does not use other tools that increase complexity without significantly affecting performance (bs_interTes, bs_pvc, etc.)

[표 11][Table 11]

Figure pat00011
Figure pat00011

표 11은 SBR 파라미터를 디코딩하기 위한 세팅과 관련된 구문정보일 수 있다. 모두 USAC의 구문과 동일하며 추가적인 변동사항은 없다.Table 11 may be syntax information related to settings for decoding SBR parameters. All are the same as USAC syntax and there are no additional changes.

[표 12][Table 12]

Figure pat00012
Figure pat00012

표 12는 MPS212의 디코딩 장치의 형상을 세팅하기 위한 구문 함수 이다. xHE-AAC 코딩 방식에서 MPS의 형상은 비트율에 따라 SBR 코딩모드와 결합되어 다양하게 세팅될 수 있다. 각각의 구문정보는 xHE-AAC과 동일하고 특이사항은 'bsDecorrConfig'에 대한 구문정보는 전송하지 않는다는 점이다. 이는 xHE-AAC 코딩 방식의 MPS 모듈이 항상 bsDecorrConfig == 0이기 때문이다.Table 12 is a syntax function for setting the shape of the decoding apparatus of the MPS 212. The shape of the MPS in the xHE-AAC coding scheme can be variously set in combination with the SBR coding mode according to the bit rate. Each syntax information is the same as xHE-AAC, and the uniqueness is that the syntax information for 'bsDecorrConfig' is not transmitted. This is because the MPS module of the xHE-AAC coding scheme is always bsDecorrConfig == 0.

도 5는 본 발명의 일실시예에 따른 xHE-AAC 슈퍼 프레임의 구조의 예를 도시한 도면이다.5 is a diagram illustrating an example of a structure of an xHE-AAC super frame according to an embodiment of the present invention.

본 발명의 일실시예에 따른 인코딩 장치(200)는 수신된 오디오 신호를 인코딩한 결과 생성된 오디오 스트림을 고정된 크기의 오디오 슈퍼 프레임으로 구성할 수 있다. 이때, xHE-AAC 코딩 방식으로 인코딩된 오디오 스트림은 다수의 프레임이 경계구분 없이 하나의 오디오 슈퍼 프레임으로 구성되어 전송될 수 있다.The encoding apparatus 200 according to an exemplary embodiment of the present invention may configure an audio stream generated as a result of encoding a received audio signal into an audio super frame having a fixed size. At this time, the audio stream encoded by the xHE-AAC coding scheme can be transmitted in a plurality of frames composed of one audio superframe without boundaries.

xHE-AAC 코딩 방식으로 구성된 오디오 슈퍼 프레임은 고정된 크기를 가지며 헤더 섹션(Header section), 페이로드 섹션(Payload section) 및 디렉토리 섹션(Directory section)으로 구성될 수 있다. An audio superframe configured with the xHE-AAC coding scheme has a fixed size and can be configured with a header section, a payload section, and a directory section.

헤더 섹션은 오디오 슈퍼 프레임에 포함되어 있는 오디오 프레임의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(reservoir fill level)에 대한 정보를 가질 수 있다. The header section may have information on the number of the boundaries of the audio frame included in the audio superframe and information on the reservoir fill level of the first audio frame.

페이로드 섹션은 오디오 프레임에 대한 비트정보를 가지고 있는 섹션으로 바이트 단위로 비트 열을 저장할 수 있다. 오디오 프레임 간의 경계에는 별다른 추가 패딩(padding) 바이트 없이 오디오 프레임 별로 비트열의 길이에 상관없이 연속적으로 붙여서 전송될 수 있다.The payload section is a section having bit information for an audio frame, and can store a bit stream in units of bytes. The boundary between the audio frames can be continuously attached without any extra padding bytes, regardless of the length of the bit string for each audio frame.

디렉토리 섹션은 오디오 프레임 별 비트열의 경계 위치 정보를 가질 수 있다. 이때, 위치정보는 해당 슈퍼 프레임 내에서만 정의되고, 바이트 단위 카운트로 위치를 설명해 줄 수 있으며 헤더 섹션에서 추출한 'b'개의 프레임 경계에 대한 위치 정보를 제공할 수 있다. The directory section may have border position information of bitstreams per audio frame. At this time, the location information is defined only within the corresponding superframe, can be described by the byte unit count, and the location information about the 'b' frame boundary extracted from the header section can be provided.

[표 13][Table 13]

Figure pat00013
Figure pat00013

표 13에서 bsFrameBorderCount는 임의의 하나의 오디오 슈퍼 프레임 유료부하 부분에 실어 보낼 수 있는 오디오 프레임 비트열의 경계 수를 나타내는 정보이다. 만일 오디오 슈퍼 프레임에 포함되는 마지막 오디오 프레임의 비트 열이 온전히 오디오 슈퍼 프레임 안에 포함될 수 있다면 오디오 프레임에 대한 경계 카운트의 수는 페이로드 섹션에 전송되는 오디오 프레임의 수와 동일할 수 있다.In Table 13, bsFrameBorderCount is Information indicating the number of boundaries of the audio frame bit string that can be carried in any one audio superframe payload portion. If the bit stream of the last audio frame included in the audio superframe can be contained entirely in the audio superframe, the number of boundary counts for the audio frame may be equal to the number of audio frames transmitted in the payload section.

bsBitReservoirLevel은 오디오 슈퍼 프레임에 포함되는 첫 번째 오디오 프레임의 비트 소진 레벨을 표시할 수 있다. 만일 포함된 오디오 프레임의 경계가 없다면 오디오 슈퍼 프레임의 전체 비트 소진 레벨을 나타낼 수 있다. FixedHeaderCRC는 헤더 섹션에 대한 CRC(Cyclic redundancy check) 코드로 8bit를 할당 할 수 있다. bsFrameBorderIndex는 오디오 슈퍼 프레임에 포함된 마지막 오디오 프레임의 경계로부터 역순으로 그 위치 정보를 제공할 수 있다. 이때, 위치 정보에 대한 인덱스 정보는 14bit를 이용하여 나타낼 수 있다. bsFrameBorderCount는 오디오 프레임의 경계 카운트에 대한 정보를 제공할 수 있다. 이때, 경계 카운트에 대한 정보는 4bit를 이용하여 나타낼 수 있으며, 만일 헤더 정보에 에러가 발생하더라도 다수의 경계 카운트 정보가 존재함으로써 디코딩 장치에서 오디오 프레임 경계를 찾아 가는데 문제가 발생하지 않을 수 있다.bsBitReservoirLevel can indicate the bit exhaustion level of the first audio frame included in the audio superframe. If there is no boundary of the included audio frame, it may indicate the full bit exhaustion level of the audio superframe. The FixedHeaderCRC can allocate 8 bits as a CRC (Cyclic Redundancy Check) code for the header section. The bsFrameBorderIndex may provide the position information in reverse order from the boundary of the last audio frame included in the audio super frame. In this case, the index information on the position information can be represented using 14 bits. bsFrameBorderCount may provide information about the boundary count of the audio frame. In this case, the information on the boundary count can be represented using 4 bits. Even if an error occurs in the header information, since there are a plurality of boundary count information, there is no problem in searching for the audio frame boundary in the decoding apparatus.

도 6은 본 발명의 일실시예에 따른 복수의 xHE-AAC 오디오 프레임의 슈퍼 프레임 유료부하 구성의 예를 도시한 도면이다.6 is a diagram illustrating an example of a superframe payload configuration of a plurality of xHE-AAC audio frames according to an embodiment of the present invention.

오디오 슈퍼 프레임의 유로부하 부분에 전송되는 오디오 프레임의 비트열은 실제 고정된 오디오 프레임 단위의 오디오 신호를 입력 받아 인코딩한 결과를 비트 열로 표현하여 오디오 프레임을 구성할 수 있다. 이때, 비트열은 바이트 단위로 구성되며, 16bit의 CRC 코드가 포함되어 있다. The bit stream of the audio frame transmitted to the channel load portion of the audio superframe can constitute an audio frame by expressing the result of encoding the audio signal of the actually fixed audio frame unit as a bit stream. At this time, the bit string is configured in byte units and includes a 16-bit CRC code.

xHE-AAC access unit(AU)은 실제 xHE-AAC 코딩 방식의 디코딩 장치를 통하여 오디오 신호를 생성하는데 활용되는 정보이다. xHE-AAC 코딩 방식의 가변 비트율에 따라 인코딩을 진행하므로, AU의 사이즈는 동일한 사이즈의 오디오 프레임 신호라도 달라질 수 있다. AU의 첫번째 비트는 usacIndependencyFlag에 대한 것으로 usacIndependencyFlag이 '1'이어야 이전프레임의 정보 없이 현재 프레임의 오디오 신호를 디코딩 할 수 있다. 따라서 하나의 오디오 슈퍼 프레임에 적어도 한 개의 오디오 프레임이 존재하여야 하며, 적어도 하나의 usacIndependencyFlag는 1로 되어 있어야 한다. The xHE-AAC access unit (AU) is information used to generate an audio signal through the decoding apparatus of the actual xHE-AAC coding scheme. Since the encoding is performed according to the variable bit rate of the xHE-AAC coding scheme, the size of the AU may be different from the audio frame signal of the same size. The first bit of the AU is usacIndependencyFlag, and the usacIndependencyFlag is '1' so that the audio signal of the current frame can be decoded without information of the previous frame. Therefore, there should be at least one audio frame in one audio superframe, and at least one usacIndependencyFlag should be 1.

xHE-AAC access unit CRC는 xHE-AAC access unit에 대한 CRC 코드도 생성하며 오디오 프레임당 16bit를 할당하여 CRC 코드를 생성할 수 있다.The xHE-AAC access unit CRC also generates a CRC code for the xHE-AAC access unit and can generate a CRC code by allocating 16 bits per audio frame.

연속적으로 입력되는 오디오 프레임 신호는 각각이 xHE-AAC 코딩 방식을 이용한 인코딩 과정을 거쳐 AU로 변환될 수 있다. 고정 비트율은 장구간을 두고 보장할 수 있으나, 각 오디오 프레임 별 소진되는 비트수는 고정적이지 않을 수 있다. 따라서 오디오 프레임의 AU는 그 길이를 오디오 슈퍼 프레임 내에서 다르게 정의 될 수 있다. 이는 인코딩되는 오디오 신호의 품질을 높이기 위한 것으로 장구간에서 난이도가 높은 오디오 프레임에 대해서 많은 비트를 할당하고 지각적으로 중요하지 못한 오디오 프레임에 대해서는 적은 비트를 할당할 수 있도록 비트 소진 레벨을 참조하여 결정할 수 있다. 비트 소진 레벨을 디코딩 장치에 전달하는 것은 입력되는 AU 버퍼 사이즈를 줄일 수 있으며, 추가적인 오디오 디코딩 장치의 지연시간을 줄일 수 있기 때문이다. The successively input audio frame signals can be converted into AUs through an encoding process using the xHE-AAC coding scheme. The fixed bit rate can be guaranteed over a long interval, but the number of bits exhausted for each audio frame may not be fixed. Thus, the AU of an audio frame can be defined differently in its length in the audio superframe. This is to increase the quality of the audio signal to be encoded, and it is determined by referring to the bit exhaustion level so as to allocate a large number of bits to audio frames having a high difficulty in a long section and allocate a small number of bits to audio frames not perceptually important . The transmission of the bit exhaustion level to the decoding apparatus can reduce the input AU buffer size and reduce the delay time of the additional audio decoding apparatus.

xHE-AAC 코딩 방식의 인코딩 장치는 전송을 위한 슈퍼프레임을 생성할 수 있다. 오디오 프레임에 대한 비트열의 바이트 정렬을 위해 xHE-AAC AU는 Null 비트를 채워 바이트 단위로 맞출 수 있다. The encoding apparatus of the xHE-AAC coding scheme can generate a superframe for transmission. The xHE-AAC AU can fill in the null bit to fit in byte units for byte alignment of the bit stream for the audio frame.

오디오 프레임의 경계는 오디오 슈퍼 프레임과 그 경계를 맞출 필요는 없으며 오디오 프레임의 AU에 대한 비트열은 오디오 신호의 입력에 따라 순차적으로 가변 비트열로 연결되어 오디오 슈퍼 프레임의 고정 비트율에 맞추어 잘라져서 전송될 수 있다. The boundary of the audio frame is not necessarily aligned with the boundary of the audio superframe. The bit stream for the AU of the audio frame is sequentially connected to the variable bit stream according to the input of the audio signal, and is cut according to the fixed bit rate of the audio super frame, .

따라서 하나의 오디오 슈퍼 프레임에는 가변적 갯수의 오디오 프레임의 AU가 포함될 수 있다. 그러나 오디오 슈퍼 프레임의 헤더정보와 디렉토리 정보에서 추출된 AU 경계정보를 기반으로 오디오 프레임의 AU를 추출하여 디코딩 할 수 있다. Therefore, one audio superframe may include an AU of a variable number of audio frames. However, the AU of the audio frame can be extracted and decoded based on the header information of the audio superframe and the AU boundary information extracted from the directory information.

만일 임의의 오디오 프레임의 AU에 대한 비트열이 하나의 오디오 슈퍼 프레임에 1바이트 이상 걸치지 않는다면, 디렉토리 섹션에서는 '프레임 경계 정보'에 대한 구문정보를 포함하지 않을 수 있다. 정확히는 '프레임 경계 정보'와 관련된 2 바이트를 포함해서 3바이트 미만의 오디오 프레임 데이터 AU의 경계 정보는 현재의 오디오 슈퍼 프레임에서 경계정보를 추출할 수 없다. If the bit stream for the AU of any audio frame does not span more than one byte in one audio superframe, the directory section may not contain syntax information for the 'frame boundary information'. The boundary information of the audio frame data AU of less than 3 bytes including 2 bytes related to 'frame boundary information' can not extract boundary information in the current audio super frame.

이럴 경우에는 다음 오디오 슈퍼 프레임에서 이를 표현하는데 디렉토리 섹션의 마지막 '프레임 경계 정보'가 이에 대한 정보를 나타낼 수 있다. 예를 들어, 마지막 '프레임 경계 정보'가 0xFFF로 명시되어 있으면, 마지막 오디오 프레임에 대한 AU의 마지막 바이트 정보는 이전프레임에 걸쳐 있다는 것이며, 디코딩 장치는 마지막 AU프레임의 디코딩을 위하여 이전 오디오 슈퍼 프레임의 유료부하 부분에서 2바이트의 데이터를 항상 버퍼링하고 있어야 한다. In this case, the last 'frame boundary information' of the directory section may represent information about it in the next audio superframe. For example, if the last 'frame boundary information' is specified as 0xFFF, then the last byte information of the AU for the last audio frame spans the previous frame, and the decoding device will decode the previous audio frame At the payload part, 2 bytes of data should always be buffered.

비트 소진 제어 장치는 MPEG 코드에서 일반적으로 활용되는 메커니즘이다. 이는 단구간에서는 가변적인 비트율을 보이나, 장구간에서는 고정된 비트율을 출력할 수 있으므로, 주어진 구간 내에서 최선의 음질을 제공할 수 있다. 따라서 xHE-AAC 코딩 방식은 비트소진 레벨이 충분히 높다면, 현재의 프레임들을 코딩하는데 비트를 추가적으로 필요하면 할당하고 그 비트소진 레벨을 낮출 수 있다. 이와는 반대로 더 이상 비트를 소진해야 할 상황이 아니라면, 비트소진 레벨을 높여서 이후 필요한 구간에서 비트를 활용할 수 있도록 할 수 있다.The bit exhaustion control device is a mechanism commonly used in MPEG codes. This shows a variable bit rate in a short interval, but can output a fixed bit rate in a long interval, so it can provide the best sound quality in a given interval. Thus, the xHE-AAC coding scheme can allocate additional bits when coding the current frames and lower the bit exhaustion level if the bit exhaustion level is sufficiently high. On the other hand, if the bit is no longer needed to be exhausted, the bit exhaustion level may be increased to enable the bit to be utilized in the required interval thereafter.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

200 : 인코딩 장치
210 : 수신부
220 : 결정부
230 : 인코딩부
240 : 구성부
400 : 디코딩 장치
410 : 수신부
420 : 추출부
430 : 디코딩부
200: encoding device
210:
220:
230: encoding section
240:
400: decoding device
410:
420:
430:

Claims (19)

오디오 신호를 수신하는 단계;
상기 수신된 오디오 신호에 대한 코딩 방식을 결정하는 단계;
상기 결정된 코딩 방식에 기초하여 상기 오디오 신호를 인코딩하는 단계; 및
상기 오디오 신호를 인코딩한 결과 생성된 오디오 스트림을 고정된 크기의 오디오 슈퍼 프레임으로 구성하는 단계
를 포함하고,
상기 코딩 방식은,
Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 코딩 방식과 기존의 AAC 계열의 제2 코딩 방식을 포함하고,
상기 오디오 슈퍼 프레임은,
상기 수신된 오디오 신호가 제1 코딩 방식에 기초하여 인코딩된 경우, 상기 제1 코딩 방식의 헤더정보를 포함하는지의 여부에 대한 구문 정보를 포함하는 오디오 신호 인코딩 방법.
Receiving an audio signal;
Determining a coding scheme for the received audio signal;
Encoding the audio signal based on the determined coding scheme; And
Configuring an audio stream resulting from encoding the audio signal into an audio superframe of a fixed size;
Lt; / RTI >
In the coding scheme,
A first coding scheme of an Extended HE-AAC (High Efficient Advanced Audio Codec) and a second coding scheme of an existing AAC sequence,
The audio superframe includes:
And if the received audio signal is encoded based on a first coding scheme, syntax information on whether or not the header information of the first coding scheme is included.
제1항에 있어서,
상기 수신하는 단계는,
상기 수신된 오디오 신호의 종류가 멀티채널 오디오 신호인지 또는 모노/스테레오 오디오 신호인지 판단하는 단계; 및
상기 수신된 오디오 신호가 멀티채널 오디오 신호로 판단되면 MPS 인코딩을 수행하는 단계
를 더 포함하는 오디오 신호 인코딩 방법.
The method according to claim 1,
Wherein the receiving comprises:
Determining whether the type of the received audio signal is a multi-channel audio signal or a mono / stereo audio signal; And
Performing MPS encoding if the received audio signal is a multi-channel audio signal
And outputting the audio signal.
제1항에 있어서,
상기 인코딩하는 단계는,
상기 수신된 오디오 신호에 대한 코딩 방식이 제1 코딩 방식으로 결정된 경우, 상기 수신된 오디오 신호에 대해 MPS212를 수행하는 단계;
상기 MPS212를 수행한 결과 출력된 오디오 신호에 대해서 eSBR을 수행하는 단계; 및
상기 eSBR을 수행한 결과 출력된 오디오 신호에 대해서 코어 인코딩을 수행하는 단계
를 포함하는 오디오 신호 인코딩 방법.
The method according to claim 1,
Wherein the encoding step comprises:
Performing MPS 212 on the received audio signal if the coding scheme for the received audio signal is determined to be a first coding scheme;
Performing eSBR on the output audio signal as a result of performing the MPS 212; And
Performing core encoding on the output audio signal as a result of performing eSBR;
/ RTI >
제1항에 있어서,
상기 인코딩하는 단계는,
상기 수신된 오디오 신호에 대한 코딩 방식이 제2 코딩 방식으로 결정된 경우, 상기 수신된 오디오 신호에 대해 PS/SBR을 수행하는 단계; 및
상기 PS/SBR을 수행한 결과 출력된 오디오 신호에 대해 제2 코딩 방식을 이용하여 인코딩을 수행하는 단계
를 포함하는 오디오 신호 인코딩 방법.
The method according to claim 1,
Wherein the encoding step comprises:
Performing PS / SBR on the received audio signal when the coding scheme for the received audio signal is determined to be a second coding scheme; And
Performing encoding using the second coding scheme on the output audio signal as a result of performing the PS / SBR;
/ RTI >
제1항에 있어서,
상기 오디오 슈퍼 프레임은,
상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성되는 오디오 신호 인코딩 방법.
The method according to claim 1,
The audio superframe includes:
A header section including information on a boundary number of audio frames included in the audio superframe and information on a reservoir fill level of a first audio frame, And a directory section including boundary position information of a bit stream for each audio frame included in the audio superframe.
제1항에 있어서,
상기 오디오 슈퍼 프레임에 대한 순방향 에러 정정 기술을 적용하는 단계
를 더 포함하고,
상기 적용하는 단계는,
상기 구성된 오디오 슈퍼 프레임이 통신 선로상에 전송되는 과정에서 발생한 비트 오류를 정정하는 오디오 신호 인코딩 방법.
The method according to claim 1,
Applying a forward error correction technique for the audio superframe;
Further comprising:
Wherein the applying comprises:
And correcting a bit error generated in the process of transmitting the configured audio super frame on the communication line.
오디오 신호를 수신하는 수신부;
상기 수신된 오디오 신호에 대한 코딩 방식을 결정하는 결정부;
상기 결정된 코딩 방식에 기초하여 상기 오디오 신호를 인코딩하는 인코딩부; 및
상기 오디오 신호를 인코딩한 결과 생성된 오디오 스트림을 고정된 크기의 오디오 슈퍼 프레임으로 구성하는 구성부
를 포함하고,
상기 코딩 방식은,
Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 코딩 방식과 기존의 AAC 계열의 제2 코딩 방식을 포함하고,
상기 오디오 슈퍼 프레임은,
상기 수신된 오디오 신호가 제1 코딩 방식에 기초하여 인코딩된 경우, 상기 제1 코딩 방식의 헤더정보를 포함하는지의 여부에 대한 구문 정보를 포함하는 오디오 신호 인코딩 장치.
A receiver for receiving an audio signal;
A determining unit determining a coding scheme for the received audio signal;
An encoding unit encoding the audio signal based on the determined coding scheme; And
And an audio superframe having a fixed size, the audio stream being generated by encoding the audio signal,
Lt; / RTI >
In the coding scheme,
A first coding scheme of an Extended HE-AAC (High Efficient Advanced Audio Codec) and a second coding scheme of an existing AAC sequence,
The audio superframe includes:
And syntax information on whether or not the received audio signal includes header information of the first coding scheme when the audio signal is encoded based on the first coding scheme.
제7항에 있어서,
상기 인코딩부는,
상기 수신된 오디오 신호에 대한 코딩 방식이 제1 코딩 방식으로 결정된 경우, 상기 수신된 오디오 신호에 대해 MPS212를 수행하고, 상기 MPS212를 수행한 결과 출력된 오디오 신호에 대해서 eSBR을 수행하며, 상기 출력된 오디오 신호에 대해서 eSBR을 수행한 결과 출력된 오디오 신호에 대해서 코어 인코딩을 수행하는 오디오 신호 인코딩 장치.
8. The method of claim 7,
The encoding unit may include:
When the coding scheme for the received audio signal is determined to be the first coding scheme, MPS 212 is performed on the received audio signal, eSBR is performed on the audio signal output as a result of performing MPS 212, And performing core encoding on the output audio signal as a result of performing eSBR on the audio signal.
제7항에 있어서,
상기 인코딩부는,
상기 수신된 오디오 신호에 대한 코딩 방식이 제2 코딩 방식으로 결정된 경우, 상기 수신된 오디오 신호에 대해 PS/SBR을 수행하고, 상기 PS/SBR을 수행한 결과 출력된 오디오 신호에 대해 제2 코딩 방식을 이용하여 인코딩을 수행하는 오디오 신호 인코딩 장치.
8. The method of claim 7,
The encoding unit may include:
Performing a PS / SBR on the received audio signal when the coding scheme for the received audio signal is determined to be a second coding scheme, performing a PS / SBR on the received audio signal, To perform encoding using the audio signal.
제7항에 있어서,
상기 오디오 슈퍼 프레임은,
상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성되는 오디오 신호 인코딩 장치.
8. The method of claim 7,
The audio superframe includes:
A header section including information on a boundary number of audio frames included in the audio superframe and information on a reservoir fill level of a first audio frame, And a directory section including boundary position information of a bit stream for each audio frame included in the audio super frame.
오디오 슈퍼 프레임을 수신하는 단계;
상기 수신된 오디오 슈퍼 프레임으로부터 오디오 신호에 대한 디코딩 방식을 결정하는 단계; 및
상기 결정된 디코딩 방식에 기초하여 상기 오디오 슈퍼 프레임을 디코딩하는 단계
를 포함하고,
상기 디코딩 방식은,
상기 Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 디코딩 방식과 기존의 AAC 계열의 제2 디코딩 방식을 포함하고,
상기 오디오 슈퍼 프레임은,
상기 제1 코딩 방식에 기초하여 디코딩되는 경우, 상기 제1 코딩 방식의 헤더정보를 포함하는지의 여부에 대한 구문 정보를 포함하는 오디오 신호 디코딩 방법.
Receiving an audio superframe;
Determining a decoding scheme for an audio signal from the received audio superframe; And
Decoding the audio superframe based on the determined decoding scheme
Lt; / RTI >
In the decoding method,
A first decoding method of the Extended HE-AAC (Advanced Efficient Advanced Audio Codec) and a second decoding method of an existing AAC sequence,
The audio superframe includes:
Wherein the decoding information includes syntax information on whether or not header information of the first coding scheme is included when decoding is performed based on the first coding scheme.
제11항에 있어서,
상기 결정하는 단계는,
상기 수신된 오디오 슈퍼 프레임으로부터 디코딩 파라미터를 추출하는 단계; 및
상기 추출된 디코딩 파라미터에 기초하여 제1 디코딩 방식 및 제2 디코딩 방식 중 적어도 하나의 디코딩 방식을 결정하는 단계
를 포함하는 오디오 신호 디코딩 방법.
12. The method of claim 11,
Wherein the determining comprises:
Extracting decoding parameters from the received audio superframe; And
Determining at least one of a first decoding method and a second decoding method based on the extracted decoding parameter
/ RTI >
제12항에 있어서,
상기 디코딩 파라미터는,
오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 따라 자동적으로 결정되고,
상기 사용자 파라미터는,
상기 오디오 신호에 대한 코덱의 비트율 정보, 상기 오디오 신호의 레이아웃 타입 정보 및 상기 오디오 신호에 대한 MPEG Surround 사용 여부 정보 중 적어도 하나의 정보를 포함하는 오디오 신호 디코딩 방법.
13. The method of claim 12,
Wherein the decoding parameter comprises:
Is automatically determined according to a user parameter required when encoding an audio signal,
Wherein the user parameter comprises:
And information on at least one of bit rate information of the codec for the audio signal, layout type information of the audio signal, and MPEG Surround use information for the audio signal.
제11항에 있어서,
상기 디코딩하는 단계는,
상기 수신된 오디오 슈퍼 프레임에 대한 디코딩 방식이 제1 디코딩 방식으로 결정된 경우, 상기 수신된 오디오 슈퍼 프레임에 대해 코어 디코딩을 수행하는 단계;
상기 코어 디코딩이 수행된 결과 출력된 오디오 신호에 대해서 eSBR을 수행하는 단계; 및
상기 eSBR을 수행한 결과 출력된 오디오 신호에 대해서 MPS212를 수행하는 단계
를 포함하는 오디오 신호 디코딩 방법.
12. The method of claim 11,
Wherein the decoding comprises:
Performing core decoding on the received audio superframe when the decoding scheme for the received audio superframe is determined to be a first decoding scheme;
Performing eSBR on an audio signal output as a result of performing core decoding; And
Performing the MPS 212 on the output audio signal as a result of performing the eSBR
/ RTI >
제11항에 있어서,
상기 디코딩하는 단계는,
상기 수신된 오디오 슈퍼 프레임에 대한 디코딩 방식이 제2 디코딩 방식으로 결정된 경우, 상기 수신된 오디오 슈퍼 프레임에 대해 제2 디코딩 방식을 이용하여 디코딩을 수행하는 단계; 및
상기 제2 디코딩 방식이 수행된 결과 출력된 오디오 신호에 대해 PS/SBR을 수행하는 단계
를 포함하는 오디오 신호 디코딩 방법.
12. The method of claim 11,
Wherein the decoding comprises:
Performing decoding on the received audio superframe using a second decoding scheme when the decoding scheme for the received audio superframe is determined to be a second decoding scheme; And
Performing PS / SBR on the audio signal output as a result of performing the second decoding scheme
/ RTI >
제11항에 있어서,
상기 오디오 슈퍼 프레임은,
상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성되는 오디오 신호 디코딩 방법.
12. The method of claim 11,
The audio superframe includes:
A header section including information on a boundary number of audio frames included in the audio superframe and information on a reservoir fill level of a first audio frame, And a directory section including boundary position information of a bit stream for each audio frame included in the audio superframe.
오디오 슈퍼 프레임을 수신하는 수신부;
상기 수신된 오디오 슈퍼 프레임으로부터 오디오 신호에 대한 디코딩 방식을 결정하는 결정부; 및
상기 결정된 디코딩 방식에 기초하여 상기 오디오 슈퍼 프레임을 디코딩하는 디코딩부
를 포함하고,
상기 디코딩 방식은,
상기 Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 디코딩 방식과 기존의 AAC 계열의 제2 디코딩 방식을 포함하고,
상기 수신된 오디오 슈퍼 프레임은,
상기 제1 코딩 방식에 기초하여 디코딩되는 경우, 상기 제1 코딩 방식의 헤더정보를 포함하는지의 여부에 대한 구문 정보를 포함하는 오디오 신호 디코딩 장치.
A receiving unit for receiving an audio superframe;
A determining unit for determining a decoding scheme for an audio signal from the received audio super frame; And
A decoding unit decoding the audio superframe based on the determined decoding scheme,
Lt; / RTI >
In the decoding method,
A first decoding method of the Extended HE-AAC (Advanced Efficient Advanced Audio Codec) and a second decoding method of an existing AAC sequence,
Wherein the received audio superframe comprises:
Wherein the header information includes syntax information on whether header information of the first coding scheme is included when the information is decoded based on the first coding scheme.
제17항에 있어서,
상기 결정부는,
상기 수신된 오디오 슈퍼 프레임으로부터 디코딩 파라미터를 추출하고, 상기 추출된 디코딩 파라미터에 기초하여 제1 디코딩 방식 및 제2 디코딩 방식 중 적어도 하나의 디코딩 방식을 결정하는 오디오 신호 디코딩 장치.
18. The method of claim 17,
Wherein,
Extracts a decoding parameter from the received audio superframe, and determines at least one of a first decoding method and a second decoding method based on the extracted decoding parameter.
제18항에 있어서,
상기 디코딩 파라미터는,
오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 따라 자동적으로 결정되고,
상기 사용자 파라미터는,
상기 오디오 신호에 대한 코덱의 비트율 정보, 상기 오디오 신호의 레이아웃 타입 정보 및 상기 오디오 신호에 대한 MPEG Surround 사용 여부 정보 중 적어도 하나의 정보를 포함하는 오디오 신호 디코딩 장치.

19. The method of claim 18,
Wherein the decoding parameter comprises:
Is automatically determined according to a user parameter required when encoding an audio signal,
Wherein the user parameter comprises:
And information on at least one of bit rate information of the codec for the audio signal, layout type information of the audio signal, and MPEG Surround use information for the audio signal.

KR1020160053168A 2015-09-11 2016-04-29 Usac audio signal encoding/decoding apparatus and method for digital radio services KR102457303B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/260,717 US10008214B2 (en) 2015-09-11 2016-09-09 USAC audio signal encoding/decoding apparatus and method for digital radio services

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150129124 2015-09-11
KR1020150129124 2015-09-11

Publications (2)

Publication Number Publication Date
KR20170031604A true KR20170031604A (en) 2017-03-21
KR102457303B1 KR102457303B1 (en) 2022-10-21

Family

ID=58502606

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160053168A KR102457303B1 (en) 2015-09-11 2016-04-29 Usac audio signal encoding/decoding apparatus and method for digital radio services

Country Status (1)

Country Link
KR (1) KR102457303B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050262419A1 (en) * 2004-04-29 2005-11-24 Ralf Becker Superframe error coding in digital audio broadcasting systems
KR20140123015A (en) * 2013-04-10 2014-10-21 한국전자통신연구원 Encoder and encoding method for multi-channel signal, and decoder and decoding method for multi-channel signal

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050262419A1 (en) * 2004-04-29 2005-11-24 Ralf Becker Superframe error coding in digital audio broadcasting systems
KR20140123015A (en) * 2013-04-10 2014-10-21 한국전자통신연구원 Encoder and encoding method for multi-channel signal, and decoder and decoding method for multi-channel signal

Also Published As

Publication number Publication date
KR102457303B1 (en) 2022-10-21

Similar Documents

Publication Publication Date Title
KR100904438B1 (en) Method and apparatus for processing an audio signal
US11367455B2 (en) Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element
US10008214B2 (en) USAC audio signal encoding/decoding apparatus and method for digital radio services
JP3186472U (en) Audio decoder using program information metadata
KR100891688B1 (en) Method for encoding and decoding multi-channel audio signal and apparatus thereof
AU2021269310B2 (en) Layered coding and data structure for compressed higher-order Ambisonics sound or sound field representations
JP2009500659A (en) Audio signal encoding and decoding method and apparatus
KR102457303B1 (en) Usac audio signal encoding/decoding apparatus and method for digital radio services
ES2770029T3 (en) Audio bitstream decoding with enhanced spectral band replication metadata in at least one filler element
OA18726A (en) Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element.

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant