KR102457303B1 - Usac audio signal encoding/decoding apparatus and method for digital radio services - Google Patents

Usac audio signal encoding/decoding apparatus and method for digital radio services Download PDF

Info

Publication number
KR102457303B1
KR102457303B1 KR1020160053168A KR20160053168A KR102457303B1 KR 102457303 B1 KR102457303 B1 KR 102457303B1 KR 1020160053168 A KR1020160053168 A KR 1020160053168A KR 20160053168 A KR20160053168 A KR 20160053168A KR 102457303 B1 KR102457303 B1 KR 102457303B1
Authority
KR
South Korea
Prior art keywords
audio
audio signal
decoding
encoding
super frame
Prior art date
Application number
KR1020160053168A
Other languages
Korean (ko)
Other versions
KR20170031604A (en
Inventor
백승권
이태진
성종모
양규태
이봉호
이미숙
임형수
최진수
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US15/260,717 priority Critical patent/US10008214B2/en
Publication of KR20170031604A publication Critical patent/KR20170031604A/en
Application granted granted Critical
Publication of KR102457303B1 publication Critical patent/KR102457303B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0014Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the source coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0001Systems modifying transmission characteristics according to link quality, e.g. power backoff
    • H04L1/0006Systems modifying transmission characteristics according to link quality, e.g. power backoff by adapting the transmission format

Abstract

디지털 라디오 서비스를 위한 USAC 오디오 신호 인코딩/디코딩 장치 및 방법이 개시된다. 오디오 신호 인코딩 방법은 오디오 신호를 수신하는 단계; 상기 수신된 오디오 신호에 대한 코딩 방식을 결정하는 단계; 상기 결정된 코딩 방식에 기초하여 상기 오디오 신호를 인코딩하는 단계; 및 상기 오디오 신호를 인코딩한 결과 생성된 오디오 스트림을 고정된 크기의 오디오 슈퍼 프레임으로 구성하는 단계를 포함하고, 상기 코딩 방식은 Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 코딩 방식과 기존의 AAC 계열의 제2 코딩 방식을 포함할 수 있다. A USAC audio signal encoding/decoding apparatus and method for digital radio service are disclosed. An audio signal encoding method includes: receiving an audio signal; determining a coding scheme for the received audio signal; encoding the audio signal based on the determined coding scheme; and composing an audio stream generated as a result of encoding the audio signal into an audio super frame of a fixed size, wherein the coding scheme is a first coding scheme of Extended High Efficient Advanced Audio Codec (HE-AAC) and an existing one. may include a second coding scheme of the AAC series of .

Figure R1020160053168
Figure R1020160053168

Description

디지털 라디오 서비스를 위한 USAC 오디오 신호 인코딩/디코딩 장치 및 방법{USAC AUDIO SIGNAL ENCODING/DECODING APPARATUS AND METHOD FOR DIGITAL RADIO SERVICES}USAC audio signal encoding/decoding apparatus and method for digital radio service

본 발명은 디지털라디오 서비스를 위한 USAC(Unified Speech and Audio Coding) 오디오 신호 인코딩/디코딩 장치 및 방법에 관한 것으로, 보다 구체적으로는 오디오 신호에 대한 코딩 방식을 결정하고, 결정된 코딩 방식에 기초하여 오디오 신호를 인코딩/디코딩하는 장치 및 방법에 관한 것이다.The present invention relates to a USAC (Unified Speech and Audio Coding) audio signal encoding/decoding apparatus and method for a digital radio service, and more particularly, to determine a coding method for an audio signal, and to determine an audio signal based on the determined coding method It relates to an apparatus and method for encoding/decoding.

USAC은 2012년도에 MPEG에서 표준화가 완료된 오디오 코덱 기술이다. USAC은 종전의 최고 기술들(HE-AACv2, AMR-WB+)과 성능을 비교하더라도 음성/오디오 신호에 대해서 개선된 성능 결과를 나타내었으며, 차세대 오디오 코덱 기술로 활용가치가 높다. USAC is an audio codec technology standardized in MPEG in 2012. Even if the performance of USAC is compared with the previous best technologies (HE-AACv2, AMR-WB+), it showed improved performance results for voice/audio signals, and has high utilization value as a next-generation audio codec technology.

기존에는 디지털라디오 서비스를 위한 DAB(Digital Audio Broadcasting) 전송 방식이 있었다. 그리고 이후 등장한 DAB+ 전송방식은 DAB에서 활용되던 오디오 코덱 기술 등을 개선하여 보나 나은 품질의 디지털라디오 서비스를 제공할 수 있는 방식이다. 본 발명은 최신 코덱인 USAC 오디오 코덱 기술을 DAB+에 활용하기 위하여 필요한 비트스트림 구조 및 프레이밍 방법을 다루고 있으며, 향후 디지털라디오 서비스의 개선을 달성하고자 한다. In the past, there was a DAB (Digital Audio Broadcasting) transmission method for a digital radio service. And the DAB+ transmission method that appeared later is a method that can provide better quality digital radio service by improving the audio codec technology used in DAB. The present invention deals with the bitstream structure and framing method required to utilize the USAC audio codec technology, which is the latest codec, in DAB+, and aims to achieve improvement of digital radio services in the future.

본 발명은 디지털 라디오 서비스를 위한 USAC 오디오 신호 인코딩/디코딩 장치 및 방법에 관한 것으로, 기존의 DAB+에 추가적으로 USAC을 적용하기 위한 구문정보와 프레임 구조를 제공함으로써 USAC 기반의 DAB+ 서비스를 가능하게 하는 장치 및 방법을 제공한다.The present invention relates to an apparatus and method for encoding/decoding a USAC audio signal for a digital radio service. An apparatus and a method for enabling a USAC-based DAB+ service by providing syntax information and a frame structure for additionally applying USAC to the existing DAB+; provide a way

본 발명의 일실시예에 따른 오디오 신호 인코딩 방법은 오디오 신호를 수신하는 단계; 상기 수신된 오디오 신호에 대한 코딩 방식을 결정하는 단계; 상기 결정된 코딩 방식에 기초하여 상기 오디오 신호를 인코딩하는 단계; 및 상기 오디오 신호를 인코딩한 결과 생성된 오디오 스트림을 고정된 크기의 오디오 슈퍼 프레임으로 구성하는 단계를 포함하고, 상기 코딩 방식은 Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 코딩 방식과 기존의 AAC 계열의 제2 코딩 방식을 포함할 수 있다.An audio signal encoding method according to an embodiment of the present invention includes: receiving an audio signal; determining a coding scheme for the received audio signal; encoding the audio signal based on the determined coding scheme; and composing an audio stream generated as a result of encoding the audio signal into an audio super frame of a fixed size, wherein the coding scheme is a first coding scheme of Extended High Efficient Advanced Audio Codec (HE-AAC) and an existing one. may include a second coding scheme of the AAC series of .

상기 수신하는 단계는 상기 수신된 오디오 신호의 종류가 멀티채널 오디오 신호인지 또는 모노/스테레오 오디오 신호인지 판단하는 단계; 및 상기 수신된 오디오 신호가 멀티채널 오디오 신호로 판단되면 MPS 인코딩을 수행하는 단계를 더 포함할 수 있다.The receiving may include: determining whether the type of the received audio signal is a multi-channel audio signal or a mono/stereo audio signal; and performing MPS encoding when it is determined that the received audio signal is a multi-channel audio signal.

상기 인코딩하는 단계는 상기 수신된 오디오 신호에 대한 코딩 방식이 제1 코딩 방식으로 결정된 경우, 상기 수신된 오디오 신호에 대해 MPS212를 수행하는 단계; 상기 MPS212를 수행한 결과 출력된 오디오 신호에 대해서 eSBR을 수행하는 단계; 및 상기 eSBR을 수행한 결과 출력된 오디오 신호에 대해서 코어 인코딩을 수행하는 단계를 포함할 수 있다.The encoding may include performing MPS212 on the received audio signal when the coding method for the received audio signal is determined as the first coding method; performing eSBR on the audio signal output as a result of performing the MPS212; and performing core encoding on an audio signal output as a result of performing the eSBR.

상기 인코딩하는 단계는 상기 수신된 오디오 신호에 대한 코딩 방식이 제2 코딩 방식으로 결정된 경우, 상기 수신된 오디오 신호에 대해 PS/SBR을 수행하는 단계; 및 상기 PS/SBR을 수행한 결과 출력된 오디오 신호에 대해 제2 코딩 방식을 이용하여 인코딩을 수행하는 단계를 포함할 수 있다.The encoding may include performing PS/SBR on the received audio signal when a coding scheme for the received audio signal is determined as a second coding scheme; and performing encoding on an audio signal output as a result of performing the PS/SBR by using a second coding scheme.

상기 오디오 슈퍼 프레임은 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성될 수 있다.The audio super frame includes a header section including information on the number of boundaries of audio frames included in the audio super frame and information on a reserve fill level of the first audio frame, and included in the audio super frame. It may be composed of a payload section including bit information of audio frames and a directory section including boundary position information of bit strings for each audio frame included in the audio super frame.

상기 오디오 슈퍼 프레임에 대한 순방향 에러 정정 기술을 적용하는 단계를 더 포함하고, 상기 적용하는 단계는 상기 구성된 오디오 슈퍼 프레임이 통신 선로상에 전송되는 과정에서 발생한 비트 오류를 정정할 수 있다.The method may further include applying a forward error correction technique to the audio super frame, wherein the applying may correct a bit error generated while the configured audio super frame is transmitted over a communication line.

본 발명의 일실시예에 따른 오디오 신호 인코딩 장치는 오디오 신호를 수신하는 수신부; 상기 수신된 오디오 신호에 대한 코딩 방식을 결정하는 결정부; 상기 결정된 코딩 방식에 기초하여 상기 오디오 신호를 인코딩하는 인코딩부; 및 상기 오디오 신호를 인코딩한 결과 생성된 오디오 스트림을 고정된 크기의 오디오 슈퍼 프레임으로 구성하는 구성부를 포함하고, 상기 코딩 방식은 Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 코딩 방식과 기존의 AAC 계열의 제2 코딩 방식을 포함할 수 있다.An audio signal encoding apparatus according to an embodiment of the present invention includes: a receiver for receiving an audio signal; a determining unit that determines a coding scheme for the received audio signal; an encoding unit for encoding the audio signal based on the determined coding method; and a component configured to form an audio stream generated as a result of encoding the audio signal into an audio super frame having a fixed size, wherein the coding scheme is a first coding scheme of Extended High Efficient Advanced Audio Codec (HE-AAC) and a conventional one. may include a second coding scheme of the AAC series of .

상기 인코딩부는 상기 수신된 오디오 신호에 대한 코딩 방식이 제1 코딩 방식으로 결정된 경우, 상기 수신된 오디오 신호에 대해 MPS212를 수행하고, 상기 MPS212를 수행한 결과 출력된 오디오 신호에 대해서 eSBR을 수행하며, 상기 출력된 오디오 신호에 대해서 eSBR을 수행한 결과 출력된 오디오 신호에 대해서 코어 인코딩을 수행할 수 있다.When the encoding method for the received audio signal is determined as the first coding method, the encoding unit performs MPS212 on the received audio signal, and performs eSBR on the audio signal output as a result of performing MPS212, As a result of performing eSBR on the output audio signal, core encoding may be performed on the output audio signal.

상기 인코딩부는 상기 수신된 오디오 신호에 대한 코딩 방식이 제2 코딩 방식으로 결정된 경우, 상기 수신된 오디오 신호에 대해 PS/SBR을 수행하고, 상기 PS/SBR을 수행한 결과 출력된 오디오 신호에 대해 제2 코딩 방식을 이용하여 인코딩을 수행할 수 있다.When the encoding method for the received audio signal is determined as the second coding method, the encoding unit performs PS/SBR on the received audio signal, and performs PS/SBR on the output audio signal as a result of performing the PS/SBR. Encoding may be performed using two coding schemes.

상기 오디오 슈퍼 프레임은 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성될 수 있다.The audio super frame includes a header section including information on the number of boundaries of audio frames included in the audio super frame and information on a reserve fill level of the first audio frame, and included in the audio super frame. It may be composed of a payload section including bit information of audio frames and a directory section including boundary position information of bit strings for each audio frame included in the audio super frame.

본 발명의 일실시예에 따른 오디오 신호 디코딩 방법은 오디오 슈퍼 프레임을 수신하는 단계; 상기 수신된 오디오 슈퍼 프레임으로부터 오디오 신호에 대한 디코딩 방식을 결정하는 단계; 및 상기 결정된 디코딩 방식에 기초하여 상기 오디오 슈퍼 프레임을 디코딩하는 단계를 포함하고, 상기 디코딩 방식은 상기 Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 디코딩 방식과 기존의 AAC 계열의 제2 디코딩 방식을 포함할 수 있다.An audio signal decoding method according to an embodiment of the present invention comprises the steps of: receiving an audio super frame; determining a decoding method for an audio signal from the received audio super frame; and decoding the audio super frame based on the determined decoding scheme, wherein the decoding scheme includes a first decoding scheme of the Extended High Efficient Advanced Audio Codec (HE-AAC) and a second decoding of an existing AAC sequence. method may be included.

상기 결정하는 단계는 상기 수신된 오디오 슈퍼 프레임으로부터 디코딩 파라미터를 추출하는 단계; 및 상기 추출된 디코딩 파라미터에 기초하여 제1 디코딩 방식 및 제2 디코딩 방식 중 적어도 하나의 디코딩 방식을 결정하는 단계를 포함할 수 있다.The determining may include: extracting a decoding parameter from the received audio super frame; and determining at least one of the first decoding method and the second decoding method based on the extracted decoding parameter.

상기 디코딩 파라미터는 오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 따라 자동적으로 결정되고, 상기 사용자 파라미터는 상기 오디오 신호에 대한 코덱의 비트율 정보, 상기 오디오 신호의 레이아웃 타입 정보 및 상기 오디오 신호에 대한 MPEG Surround 사용 여부 정보 중 적어도 하나의 정보를 포함할 수 있다.The decoding parameter is automatically determined according to a user parameter required for encoding an audio signal, and the user parameter includes bit rate information of a codec for the audio signal, layout type information of the audio signal, and MPEG Surround use for the audio signal. It may include at least one piece of information among whether or not information.

상기 디코딩하는 단계는 상기 수신된 오디오 슈퍼 프레임에 대한 디코딩 방식이 제1 디코딩 방식으로 결정된 경우, 상기 수신된 오디오 슈퍼 프레임에 대해 코어 디코딩을 수행하는 단계; 상기 코어 디코딩이 수행된 결과 출력된 오디오 신호에 대해서 eSBR을 수행하는 단계; 및 상기 eSBR을 수행한 결과 출력된 오디오 신호에 대해서 MPS212를 수행하는 단계를 포함할 수 있다.The decoding may include performing core decoding on the received audio super frame when the decoding method for the received audio super frame is determined as the first decoding method; performing eSBR on the audio signal output as a result of the core decoding; and performing MPS212 on the audio signal output as a result of performing the eSBR.

상기 디코딩하는 단계는 상기 수신된 오디오 슈퍼 프레임에 대한 디코딩 방식이 제2 디코딩 방식으로 결정된 경우, 상기 수신된 오디오 슈퍼 프레임에 대해 제2 디코딩 방식을 이용하여 디코딩을 수행하는 단계; 및 상기 제2 디코딩 방식이 수행된 결과 출력된 오디오 신호에 대해 PS/SBR을 수행하는 단계를 포함할 수 있다.The decoding may include: when the decoding method for the received audio super frame is determined as the second decoding method, performing decoding on the received audio super frame using a second decoding method; and performing PS/SBR on the audio signal output as a result of performing the second decoding method.

상기 오디오 슈퍼 프레임은 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성될 수 있다.The audio super frame includes a header section including information on the number of boundaries of audio frames included in the audio super frame and information on a reserve fill level of the first audio frame, and included in the audio super frame. It may be composed of a payload section including bit information of audio frames and a directory section including boundary position information of bit strings for each audio frame included in the audio super frame.

본 발명의 일실시예에 따른 오디오 신호 디코딩 장치는 오디오 슈퍼 프레임을 수신하는 수신부; 상기 수신된 오디오 슈퍼 프레임으로부터 오디오 신호에 대한 디코딩 방식을 결정하는 결정부; 및 상기 결정된 디코딩 방식에 기초하여 상기 오디오 슈퍼 프레임을 디코딩하는 디코딩부를 포함하고, 상기 디코딩 방식은 상기 Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 디코딩 방식과 기존의 AAC 계열의 제2 디코딩 방식을 포함할 수 있다.An audio signal decoding apparatus according to an embodiment of the present invention includes: a receiver for receiving an audio super frame; a determining unit for determining a decoding method for an audio signal from the received audio super frame; and a decoding unit for decoding the audio super frame based on the determined decoding method, wherein the decoding method includes a first decoding method of the Extended High Efficient Advanced Audio Codec (HE-AAC) and a second decoding of an existing AAC series. method may be included.

상기 결정부는 상기 수신된 오디오 슈퍼 프레임으로부터 디코딩 파라미터를 추출하고, 상기 추출된 디코딩 파라미터에 기초하여 제1 디코딩 방식 및 제2 디코딩 방식 중 적어도 하나의 디코딩 방식을 결정할 수 있다.The determiner may extract a decoding parameter from the received audio super frame, and determine at least one of a first decoding method and a second decoding method based on the extracted decoding parameter.

상기 디코딩 파라미터는 오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 따라 자동적으로 결정되고, 상기 사용자 파라미터는 상기 오디오 신호에 대한 코덱의 비트율 정보, 상기 오디오 신호의 레이아웃 타입 정보 및 상기 오디오 신호에 대한 MPEG Surround 사용 여부 정보 중 적어도 하나의 정보를 포함할 수 있다.The decoding parameter is automatically determined according to a user parameter required for encoding an audio signal, and the user parameter includes bit rate information of a codec for the audio signal, layout type information of the audio signal, and MPEG Surround use for the audio signal. It may include at least one piece of information among whether or not information.

본 발명의 일실시예에 의하면, 기존의 DAB+에 추가적으로 USAC을 적용하기 위한 구문정보와 프레임 구조를 제공함으로써 USAC 기반의 DAB+ 서비스를 가능하게 할 수 있다.According to an embodiment of the present invention, it is possible to enable USAC-based DAB+ service by providing syntax information and a frame structure for additionally applying USAC to the existing DAB+.

도 1은 본 발명의 일실시예에 따른 Extended HE-AAC(xHE-AAC)의 인코딩 시스템 구조를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 인코딩 장치를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 Extended HE-AAC(xHE-AAC)의 디코딩 시스템 구조를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 디코딩 장치를 도시한 도면이다.
도 5는 본 발명의 일실시예에 따른 xHE-AAC 슈퍼 프레임의 구조의 예를 도시한 도면이다.
도 6은 본 발명의 일실시예에 따른 복수의 xHE-AAC 오디오 프레임의 슈퍼 프레임 유료부하 구성의 예를 도시한 도면이다.
1 is a diagram illustrating an encoding system structure of Extended HE-AAC (xHE-AAC) according to an embodiment of the present invention.
2 is a diagram illustrating an encoding apparatus according to an embodiment of the present invention.
3 is a diagram illustrating a structure of a decoding system of Extended HE-AAC (xHE-AAC) according to an embodiment of the present invention.
4 is a diagram illustrating a decoding apparatus according to an embodiment of the present invention.
5 is a diagram illustrating an example of the structure of an xHE-AAC super frame according to an embodiment of the present invention.
6 is a diagram illustrating an example of a super frame payload configuration of a plurality of xHE-AAC audio frames according to an embodiment of the present invention.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed herein are only exemplified for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiment according to the concept of the present invention These may be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention may have various changes and may have various forms, the embodiments will be illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes changes, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from other components, for example, without departing from the scope of rights according to the concept of the present invention, a first component may be named as a second component, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle. Expressions describing the relationship between elements, for example, “between” and “between” or “directly adjacent to”, etc. should be interpreted similarly.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is used only to describe specific embodiments, and is not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof exists, and includes one or more other features or numbers, It should be understood that the possibility of the presence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. does not

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference numerals in each figure indicate like elements.

이하 본 발명의 구성 설명에서는 USAC의 명칭 대신에 Extended HE-AAC(xHE-AAC)라는 명칭을 활용하도록 하겠다. 이는 USAC이 실제로 xHE-AAC 프로파일에 정의되어 있으며, xHE-AAC 프로파일을 활용하면 USAC과 HE-AACv2를 동시에 지원할 수 있기 때문이다. 따라서 본 명세서에서는 xHE-AAC를 USAC으로 간주하면 된다.Hereinafter, in the configuration description of the present invention, the name of Extended HE-AAC (xHE-AAC) will be used instead of the name of USAC. This is because USAC is actually defined in the xHE-AAC profile, and by using the xHE-AAC profile, both USAC and HE-AACv2 can be supported at the same time. Therefore, in the present specification, xHE-AAC may be regarded as USAC.

도 1은 본 발명의 일실시예에 따른 Extended HE-AAC(xHE-AAC)의 인코딩 시스템 구조를 도시한 도면이다.1 is a diagram illustrating an encoding system structure of Extended HE-AAC (xHE-AAC) according to an embodiment of the present invention.

xHE-AAC 오디오 스트림을 DAB망을 통해 전송하기 위해서는 xHE-AAC 오디오 코덱에 대한 파라미터의 범위와 특성에 맞는 프로파일이 정의되어야 한다. 또한 압축된 xHE-AAC 오디오 스트림을 DAB 주 서비스 채널을 통해 다중화하여 전송하고자 할 경우 xHE-AAC 인코딩 장치는 압축된 xHE-AAC 오디오 스트림을 오디오 슈퍼 프레임으로 구성하여 실제 전송 조건에 맞도록 전송해야 한다. In order to transmit the xHE-AAC audio stream through the DAB network, a profile suitable for the range and characteristics of parameters for the xHE-AAC audio codec must be defined. In addition, if the compressed xHE-AAC audio stream is to be multiplexed through the DAB main service channel and transmitted, the xHE-AAC encoding device composes the compressed xHE-AAC audio stream into an audio super frame and transmits it according to the actual transmission conditions. .

또한 본 발명의 인코딩 장치는 xHE-AAC 오디오 스트림의 강건한 전송을 보장하기 위해 별도의 순방향 에러 정정 기술(Forward Error Correction, FEC)을 적용해야 하며 xHE-AAC 디코딩 장치는 HE-AAC v2를 적용하는 DAB+ 오디오 스트림의 디코딩 기능을 지원하여야 한다.In addition, the encoding apparatus of the present invention must apply a separate Forward Error Correction (FEC) to ensure robust transmission of the xHE-AAC audio stream, and the xHE-AAC decoding apparatus is DAB+ that applies HE-AAC v2 It should support the decoding function of the audio stream.

xHE-AAC의 인코딩 시스템 구조는 도 1과 같이 도시할 수 있다. 오디오 신호는 xHE-AAC 코딩 방식(제1 코딩 방식)과 기존의 AAC 계열의 코딩 방식(제2 코딩 방식)의 선택적 구조를 통해 인코딩 과정을 거칠 수 있다. 먼저 인코딩 시스템 구조는 미리 설정된 조건에 따라 오디오 신호에 대한 코딩 방식을 결정하고, 결정된 코딩 방식에 기초하여 오디오 신호를 인코딩할 수 있다.The structure of the encoding system of xHE-AAC may be illustrated as shown in FIG. 1 . The audio signal may undergo an encoding process through a selective structure of the xHE-AAC coding scheme (the first coding scheme) and the existing AAC-based coding scheme (the second coding scheme). First, the encoding system structure may determine a coding scheme for an audio signal according to a preset condition, and encode the audio signal based on the determined coding scheme.

이때, 인코딩 시스템 구조는 오디오 신호의 종류가 멀티채널 오디오 신호인지 또는 모노/스테레오 신호인지를 판단하고, 만약 오디오 신호가 멀티채널 오디오 신호로 판단되면 MSP(MPEG Surround) 인코딩을 먼저 수행할 수 있다. 이후 인코딩 시스템 구조는 MPS 인코딩을 수행하여 출력된 모노 또는 스테레오 오디오 신호에 대해서 인코딩 과정을 수행할 수 있다. In this case, the encoding system structure determines whether the type of the audio signal is a multi-channel audio signal or a mono/stereo signal, and if the audio signal is determined to be a multi-channel audio signal, MPEG Surround (MSP) encoding may be performed first. Thereafter, the encoding system structure may perform an encoding process on a mono or stereo audio signal output by performing MPS encoding.

인코딩 시스템 구조는 만약 오디오 신호에 대한 코딩 방식이 제1 코딩 방식으로 결정된 경우, 수신된 오디오 신호에 대해 MPS212를 수행하고, MPS212를 수행한 결과 출력된 오디오 신호에 대해서 eSBR(enhanced Spectral band replication)을 수행하며, eSBR을 수행한 결과 출력된 오디오 신호에 대해서 코어 인코딩을 수행할 수 있다.In the encoding system structure, if the coding scheme for the audio signal is determined as the first coding scheme, MPS212 is performed on the received audio signal, and enhanced spectral band replication (eSBR) is performed on the audio signal output as a result of performing MPS212. and core encoding may be performed on an audio signal output as a result of performing eSBR.

또한, 인코딩 시스템 구조는 만약 오디오 신호에 대한 코딩 방식이 제2 코딩 방식으로 결정된 경우, 수신된 오디오 신호에 대해 PS(Parametric Stereo)/SBR(Spectral Band Replication)을 수행하고, PS/SBR을 수행한 결과 출력된 오디오 신호에 대해 제2 코딩 방식을 이용하여 인코딩을 수행할 수 있다.In addition, the encoding system structure performs PS (Parametric Stereo)/SBR (Spectral Band Replication) on the received audio signal when the coding method for the audio signal is determined as the second coding method, and performs PS/SBR. Encoding may be performed on the resultant output audio signal by using the second coding method.

xHE-AAC 코딩 방식의 구성요소는 AAC 계열의 코딩 툴과 마찬가지로, SBR, 스테레오 코딩 툴을 포함하고 있으나 독립적인 개정안으로 표준이 진행되지 않고 xHE-AAC 표준기술에 모두 포함되어 있으므로 하나의 xHE-AAC 인코딩 블록(110)으로 표현하는 것이 적절하다. 스테레오 코딩 툴에 차이가 있다면, 기존의 AAC 계열의 코딩 툴은 PS 코딩 방식을 활용하고 있으나, xHE-AAC는 스테레오 버전의 MPS212를 활용하여 보다 향상된 스테레오 음질을 제공할 수 있다는 점이다. xHE-AAC 코딩 방식의 SBR 모듈도 몇 가지 기능이 추가되어 eSBR(enhanced SBR)로 정의되어 활용되고 있다. The components of the xHE-AAC coding method include SBR and stereo coding tools like the AAC-series coding tools, but as an independent revision, the standard is not progressed and is included in the xHE-AAC standard technology, so one xHE-AAC Representation by encoding block 110 is appropriate. If there is a difference between the stereo coding tools, the existing AAC-type coding tools use the PS coding method, but xHE-AAC can provide improved stereo sound quality by using the stereo version of MPS212. The SBR module of the xHE-AAC coding method has also been defined and utilized as eSBR (enhanced SBR) by adding some functions.

도 2는 본 발명의 일실시예에 따른 인코딩 장치를 도시한 도면이다.2 is a diagram illustrating an encoding apparatus according to an embodiment of the present invention.

본 발명의 일실시예에 따른 인코딩 장치(200)는 수신부(210), 결정부(220), 인코딩부(230) 및 구성부(240)로 구성될 수 있다. 수신부(210)는 인코딩하고자 하는 오디오 신호를 수신할 수 있다. 이때, 수신부(210)로 수신되는 오디오 신호는 멀티채널 오디오 신호 또는 모노/스테레오 오디오 신호일 수 있다. The encoding apparatus 200 according to an embodiment of the present invention may include a receiving unit 210 , a determining unit 220 , an encoding unit 230 , and a configuration unit 240 . The receiver 210 may receive an audio signal to be encoded. In this case, the audio signal received by the receiver 210 may be a multi-channel audio signal or a mono/stereo audio signal.

수신부(210)는 수신된 오디오 신호의 종류가 멀티채널 오디오 신호 인지 또는 모노/스테레오 오디오 신호인지를 판단할 수 있다. 이때, 수신부(210)는 수신된 오디오 신호를 멀티채널 오디오 신호로 판단한 경우, MPS 인코딩을 수행하여 멀티채널 오디오 신호를 모노 또는 스테레오 오디오 신호로 변환할 수 있다.The receiver 210 may determine whether the received audio signal is a multi-channel audio signal or a mono/stereo audio signal. In this case, when determining that the received audio signal is a multi-channel audio signal, the receiver 210 may perform MPS encoding to convert the multi-channel audio signal into a mono or stereo audio signal.

결정부(220)부는 수신부(210)를 통해 수신된 오디오 신호에 대한 코딩 방식을 결정할 수 있다. 이때, 코딩 방식은 Extended HE-AAC(xHE-AAC)의 제1 코딩 방식과 기존의 AAC 계열의 제2 코딩 방식을 포함할 수 있다.The determiner 220 may determine a coding scheme for the audio signal received through the receiver 210 . In this case, the coding scheme may include a first coding scheme of Extended HE-AAC (xHE-AAC) and a second coding scheme of an existing AAC series.

인코딩부(230)는 결정부(220)에서 결정된 코딩 방식에 기초하여 수신된 오디오 신호를 인코딩 할 수 있다. 예를 들어, 수신된 오디오 신호에 대한 코딩 방식이 제1 코딩 방식으로 결정된 경우, 인코딩부(230)는 수신된 오디오 신호에 대해 MPS212를 수행하고, MPS212를 수행한 결과 출력된 오디오 신호에 대해서 eSBR(enhanced Spectral band replication)을 수행하며, eSBR을 수행한 결과 출력된 오디오 신호에 대해서 코어 인코딩을 수행할 수 있다.The encoding unit 230 may encode the received audio signal based on the coding method determined by the determiner 220 . For example, when the coding scheme for the received audio signal is determined as the first coding scheme, the encoding unit 230 performs MPS212 on the received audio signal, and eSBR on the audio signal output as a result of performing MPS212 (enhanced spectral band replication) is performed, and core encoding may be performed on an audio signal output as a result of performing eSBR.

다른 경우에 만약 수신된 오디오 신호에 대한 코딩 방식이 제2 코딩 방식으로 결정된 경우, 인코딩부(230)는 수신된 오디오 신호에 대해 PS(Parametric Stereo)/SBR(Spectral Band Replication)을 수행하고, PS/SBR을 수행한 결과 출력된 오디오 신호에 대해 제2 코딩 방식을 이용하여 인코딩을 수행할 수 있다.In another case, if the coding scheme for the received audio signal is determined as the second coding scheme, the encoding unit 230 performs Parametric Stereo (PS)/Spectral Band Replication (SBR) on the received audio signal, and PS An audio signal output as a result of performing /SBR may be encoded using the second coding method.

구성부(240)는 수신된 오디오 신호를 인코딩한 결과 생성된 오디오 스트림을 고정된 크기의 오디오 슈퍼 프레임으로 구성할 수 있다. 이때, 제1 코딩 방식으로 인코딩된 오디오 스트림은 다수의 프레임이 경계구분 없이 하나의 오디오 슈퍼 프레임으로 구성되어 전송될 수 있다. The configuration unit 240 may configure an audio stream generated as a result of encoding the received audio signal into an audio super frame having a fixed size. In this case, the audio stream encoded by the first coding method may be transmitted by configuring a plurality of frames as one audio super frame without dividing a boundary.

적용부(미도시)는 오디오 슈퍼 프레임에 대한 순방향 에러 정정 기술을 적용할 수 있다. 이때, 적용부는 구성된 오디오 슈퍼 프레임이 통신 선로상에 전송되는 과정에서 발생한 비트 오류를 정정할 수 있다.The application unit (not shown) may apply a forward error correction technique to the audio super frame. In this case, the application unit may correct a bit error occurring while the configured audio super frame is transmitted over the communication line.

도 3은 본 발명의 일실시예에 따른 Extended HE-AAC(xHE-AAC)의 디코딩 시스템 구조를 도시한 도면이다.3 is a diagram illustrating a structure of a decoding system of Extended HE-AAC (xHE-AAC) according to an embodiment of the present invention.

xHE-AAC 규격은 총 4개의 프로파일 레벨(Level)로 정의되어 있으며, 모든 프로파일 레벨은 USAC 프로파일 레벨 2를 포함하고 있다. USAC 프로파일 레벨 2는 모노와 스테레오 신호에 대한 디코딩 기능을 지원하는 프로파일이다. 따라서 xHE-AAC 규격은 모노 및 스테레오 오디오 신호에 대해서 USAC으로 디코딩할 수 있어야 한다. 본 전송 규격에서는 xHE-AAC 프로파일 레벨 2만을 지원하는 것으로 한다. The xHE-AAC standard is defined by a total of four profile levels (Level), and all profile levels include USAC profile level 2. USAC Profile Level 2 is a profile that supports decoding for mono and stereo signals. Therefore, the xHE-AAC standard must be able to decode into USAC for mono and stereo audio signals. It is assumed that only xHE-AAC profile level 2 is supported in this transmission standard.

즉, 본 발명에 따른 디코딩 시스템 구조는 USAC의 모노 및 스테레오 오디오 신호에 대한 비트스트림을 디코딩할 수 있어야 하며, 동시에 HE-AAC v2의 모노 및 스테레오 오디오 신호에 대한 비트스트림에 대해서 디코딩을 수행할 수 있어야 한다. 다채널 신호에 대한 지원은 MPEG Surround 기술을 활용함으로써, 모노 및 스테레오 오디오 신호에 대한 하위호환성을 유지 시킬 수 있다.That is, the decoding system structure according to the present invention must be able to decode bitstreams for mono and stereo audio signals of USAC, and simultaneously decode bitstreams for mono and stereo audio signals of HE-AAC v2. there should be Support for multi-channel signals can maintain backward compatibility for mono and stereo audio signals by utilizing MPEG Surround technology.

xHE-AAC의 디코딩 시스템 구조는 도 3과 같이 도시할 수 있다. 디코딩 시스템 구조로 수신된 오디오 수퍼 프레임은 xHE-AAC 코딩 방식(제1 코딩 방식)과 기존의 AAC 계열의 코딩 방식(제2 코딩 방식)의 선택적 구조를 통해 디코딩 과정을 거칠 수 있다. 먼저 디코딩 시스템은 수신된 오디오 슈퍼 프레임으로부터 디코딩 파라미터를 추출하고, 추출된 디코딩 파라미터에 기초하여 디코딩 방식을 결정할 수 있다. 미리 설정된 조건에 따라 오디오 신호에 대한 코딩 방식을 결정하고, 결정된 코딩 방식에 기초하여 오디오 신호를 인코딩할 수 있다.The structure of the decoding system of xHE-AAC may be illustrated as shown in FIG. 3 . The audio super frame received with the decoding system structure may undergo a decoding process through a selective structure of the xHE-AAC coding scheme (first coding scheme) and the existing AAC-series coding scheme (second coding scheme). First, the decoding system may extract a decoding parameter from the received audio super frame, and determine a decoding method based on the extracted decoding parameter. A coding scheme for the audio signal may be determined according to a preset condition, and the audio signal may be encoded based on the determined coding scheme.

이때, 추출되는 디코딩 파라미터는 오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 따라 자동적으로 결정될 수 있다. 사용자 파라미터는 오디오 신호에 대한 코덱의 비트율 정보, 오디오 신호의 레이아웃 타입 정보 및 오디오 신호에 대한 MPEG Surround 사용 여부 정보 중 적어도 하나의 정보를 포함할 수 있다.In this case, the extracted decoding parameters may be automatically determined according to user parameters required for encoding the audio signal. The user parameter may include at least one information of bit rate information of a codec for an audio signal, layout type information of an audio signal, and information on whether MPEG Surround is used for an audio signal.

디코딩 시스템 구조는 만약 오디오 슈퍼 프레임에 대한 코딩 방식이 제1 디코딩 방식으로 결정된 경우, 수신된 오디오 슈퍼 프레임에 대해 코어 디코딩을 수행하고, 코어 디코딩이 수행된 결과 출력된 오디오 신호에 대해서 eSBR을 수행하며, eSBR을 수행한 결과 출력된 오디오 신호에 대해서 MPS212를 수행할 수 있다.In the decoding system structure, if the coding scheme for the audio super frame is determined as the first decoding scheme, core decoding is performed on the received audio super frame, and eSBR is performed on the audio signal output as a result of core decoding, , MPS212 may be performed on an audio signal output as a result of performing eSBR.

또한, 디코딩 시스템 구조는 만약 수신된 오디오 슈퍼 프레임에 대한 디코딩 방식이 제2 디코딩 방식으로 결정된 경우, 수신된 오디오 슈퍼 프레임에 대해 제2 디코딩 방식을 이용하여 디코딩을 수행하고, 제2 디코딩 방식이 수행된 결과 출력된 오디오 신호에 대해 PS/SBR을 수행할 수 있다. In addition, the decoding system structure performs decoding on the received audio super frame by using the second decoding method if the decoding method for the received audio super frame is determined as the second decoding method, and the second decoding method is performed PS/SBR may be performed on the outputted audio signal.

이때, 디코딩 시스템 구조는 수신된 오디오 슈퍼 프레임에 대한 디코딩을 수행한 결과 출력된 오디오 신호가 멀티채널 오디오 신호이거나 다채널을 위한 바이노럴 스테레오 신호인지를 판단하고, 만약 오디오 신호가 멀티채널 오디오 신호이거나 다채널을 위한 바이노럴 스테레오 신호로 판단되면 MPS 디코딩을 수행할 수 있다.At this time, the decoding system structure determines whether the audio signal output as a result of decoding the received audio super frame is a multi-channel audio signal or a binaural stereo signal for multi-channel, if the audio signal is a multi-channel audio signal If it is determined to be a binaural stereo signal for multi-channel, MPS decoding may be performed.

도 4는 본 발명의 일실시예에 따른 디코딩 장치를 도시한 도면이다.4 is a diagram illustrating a decoding apparatus according to an embodiment of the present invention.

본 발명의 일실시예에 따른 디코딩 장치(400)는 수신부(410), 추출부(420) 및 디코딩부(430)으로 구성될 수 있다. 수신부(410)는 디코딩하고자 하는 오디오 슈퍼 프레임을 수신할 수 있다. 이때, 수신부(410)가 수신하는 오디오 슈퍼 프레임은 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성될 수 있다.The decoding apparatus 400 according to an embodiment of the present invention may include a receiving unit 410 , an extracting unit 420 , and a decoding unit 430 . The receiver 410 may receive an audio super frame to be decoded. In this case, the audio super frame received by the receiver 410 includes a header section including information on the number of boundaries of audio frames included in the audio super frame and information on a reserve fill level of the first audio frame; It may be composed of a payload section including bit information of audio frames included in the audio super frame and a directory section including boundary position information of bit strings for each audio frame included in the audio super frame.

추출부(420)는 수신부(410)를 통해 수신된 오디오 슈퍼 프레임으로부터 해당 오디오 슈퍼 프레임을 디코딩하기 위한 디코딩 파라미터를 추출할 수 있다. 이때, 추출부(420)를 통해 추출되는 디코딩 파라미터는 오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 따라 자동적으로 결정될 수 있으며, 사용자 파라미터는 오디오 신호에 대한 코덱의 비트율 정보, 오디오 신호의 레이아웃 타입 정보 및 오디오 신호에 대한 MPEG Surround 사용 여부 정보 중 적어도 하나의 정보를 포함할 수 있다.The extractor 420 may extract a decoding parameter for decoding the corresponding audio super frame from the audio super frame received through the receiver 410 . At this time, the decoding parameters extracted through the extractor 420 may be automatically determined according to user parameters required for encoding the audio signal, and the user parameters include bit rate information of the codec for the audio signal, layout type information of the audio signal, and At least one piece of information on whether MPEG Surround is used for an audio signal may be included.

디코딩부(430)는 추출부(420)를 통해 추출된 디코딩 파라미터에 기초하여 수신된 오디오 슈퍼 프레임을 디코딩 할 수 있다. 만약 수신된 오디오 슈퍼 프레임에 대한 코딩 방식이 제1 디코딩 방식으로 결정된 경우, 디코딩부(430)는 수신된 오디오 슈퍼 프레임에 대해 코어 디코딩을 수행하고, 코어 디코딩이 수행된 결과 출력된 오디오 신호에 대해서 eSBR을 수행하며, eSBR을 수행한 결과 출력된 오디오 신호에 대해서 MPS212를 수행할 수 있다.The decoding unit 430 may decode the received audio super frame based on the decoding parameter extracted through the extraction unit 420 . If the coding method for the received audio super frame is determined as the first decoding method, the decoding unit 430 performs core decoding on the received audio super frame, and performs core decoding on the output audio signal. eSBR is performed, and MPS212 may be performed on an audio signal output as a result of performing eSBR.

이와는 달리 만약 수신된 오디오 슈퍼 프레임에 대한 디코딩 방식이 제2 디코딩 방식으로 결정된 경우, 디코딩부(430)는 수신된 오디오 슈퍼 프레임에 대해 제2 디코딩 방식을 이용하여 디코딩을 수행하고, 제2 디코딩 방식이 수행된 결과 출력된 오디오 신호에 대해 PS/SBR을 수행할 수 있다.On the other hand, if the decoding method for the received audio super frame is determined as the second decoding method, the decoding unit 430 performs decoding on the received audio super frame using the second decoding method, and the second decoding method PS/SBR may be performed on the audio signal output as a result of this operation.

제1 코딩 방식으로 인코딩된 오디오 스트림은 다수의 프레임이 경계구분 없이 하나의 오디오 슈퍼 프레임으로 구성되어 전송될 수 있다.The audio stream encoded by the first coding method may be transmitted by configuring a plurality of frames as one audio super frame without dividing boundaries.

[표 1][Table 1]

Figure 112016041623377-pat00001
Figure 112016041623377-pat00001

따라서, 전송된 오디오 슈퍼 프레임을 해석하기에 앞서, 기본적인 전송 오디오 프레임에 대한 구문 정보를 추출하여야 한다. 상기의 표 1은 이를 나타내는 구문정보를 포함하는 구문함수 이다.Therefore, before interpreting the transmitted audio super frame, syntax information for the basic transmitted audio frame must be extracted. Table 1 above is a syntax function including syntax information indicating this.

[표 2][Table 2]

Figure 112016041623377-pat00002
Figure 112016041623377-pat00002

상기의 표 2는 전송 오디오 프레임을 생성하는데 이용된 오디오 코덱의 방식을 제공한다. 이때, 전송 오디오 프레임은 오디오 코딩의 방식을 2bit를 통해 표현할 수 있다.Table 2 above provides an audio codec method used to generate a transmission audio frame. In this case, the transmission audio frame may express the audio coding method through 2 bits.

예를 들어, 표 2에서와 같이 전송 오디오 프레임은 표현되는 2bit가 00일 경우 기존의 AAC 계열의 코딩 방식을 이용하여 인코딩되었다는 것을 나타내고, 11일 경우 xHE-AAC 코딩 방식을 이용하여 인코딩되었다는 것을 나타낼 수 있다. 따라서, 해당하는 전송 오디오 프레임을 디코딩하는 경우 본 구문 정보로부터 기존의 AAC 계열의 코딩 방식 또는 xHE-AAC 코딩 방식의 디코딩 장치가 선택될 수 있다.For example, as shown in Table 2, when the 2 bits represented is 00, it indicates that it is encoded using the existing AAC coding scheme, and when 11, it indicates that it is encoded using the xHE-AAC coding scheme. can Accordingly, when decoding a corresponding transmission audio frame, a decoding apparatus of an existing AAC-based coding scheme or an xHE-AAC coding scheme may be selected from this syntax information.

[표 3][Table 3]

Figure 112016041623377-pat00003
Figure 112016041623377-pat00003

상기의 표 3은 전송 오디오 프레임이 xHE-AAC 코딩 방식의 디코딩 장치를 이용하여 디코딩하는 경우, 해당 전송 오디오 프레임에 대한 xHE-AAC의 프로파일(오디오 모드)을 나타내기 위한 구문 정보일 수 있다. 이때, 전송 오디오 프레임은 오디오 모드의 방식을 2bit를 통해 표현할 수 있다.Table 3 above may be syntax information for indicating a profile (audio mode) of xHE-AAC for a corresponding transport audio frame when the transport audio frame is decoded using a decoding apparatus of the xHE-AAC coding scheme. In this case, the transmission audio frame may express the method of the audio mode through 2 bits.

예를 들어, 표 3에서와 같이 전송 오디오 프레임은 표현되는 2bit가 00인 경우 모노 오디오 신호에 대한 코딩 모드가 결정되고, 10인 경우 스테레오 오디오 신호에 대한 코딩 모드가 결정될 수 있다.For example, as shown in Table 3, when 2 bits expressed in the transmission audio frame are 00, a coding mode for a mono audio signal may be determined, and if 10, a coding mode for a stereo audio signal may be determined.

[표 4] [Table 4]

Figure 112016041623377-pat00004
Figure 112016041623377-pat00004

상기의 표 4는 전송 오디오 프레임이 xHE-AAC 코딩 방식의 디코딩 장치를 이용하여 디코딩하는 경우, 해당 전송 오디오 프레임를 디코딩하기 위한 표본 주파수에 대한 구문 정보일 수 있다. 이때, 전송 오디오 프레임은 표본 주파수를 3bit를 통해 표현할 수 있다.Table 4 above may be syntax information on a sample frequency for decoding the transmission audio frame when the transmission audio frame is decoded using a decoding apparatus of the xHE-AAC coding scheme. In this case, the transmission audio frame may express the sample frequency through 3 bits.

예를 들어, 표 4에서와 같이 전송 오디오 프레임의 표현되는 3bit가 000인 경우 xHE-AAC 코딩 방식의 디코딩 장치는 전송 오디오 프레임을 12Hz의 표본 주파수에 기초하여 디코딩을 수행할 수 있다. 또는 전송 오디오 프레임의 표현되는 3bit가 010인 경우 xHE-AAC 코딩 방식의 디코딩 장치는 전송 오디오 프레임을 24Hz의 표본 주파수에 기초하여 디코딩을 수행할 수 있다.For example, as shown in Table 4, when 3 bits expressed in the transmission audio frame are 000, the decoding apparatus of the xHE-AAC coding method may decode the transmission audio frame based on a sample frequency of 12 Hz. Alternatively, when 3 bits expressed in the transmission audio frame are 010, the decoding apparatus of the xHE-AAC coding method may decode the transmission audio frame based on a sample frequency of 24 Hz.

[표 5][Table 5]

Figure 112016041623377-pat00005
Figure 112016041623377-pat00005

상기의 표 5는 전송 오디오 프레임이 xHE-AAC 코딩 방식의 디코딩 장치를 이용하여 디코딩하는 경우, 해당 전송 오디오 프레임이 xHE-AAC의 헤더정보를 포함하는지의 여부에 대한 구문 정보일 수 있다. 이때, 전송 오디오 프레임은 xHE-AAC의 헤더정보를 2bit를 통해 표현할 수 있다.Table 5 above may be syntax information on whether or not the transmission audio frame includes header information of xHE-AAC when the transmission audio frame is decoded using a decoding apparatus of the xHE-AAC coding method. In this case, the transmission audio frame may express header information of xHE-AAC through 2 bits.

예를 들어, 표 5에서와 같이 전송 오디오 프레임의 표현되는 2bit가 00인 경우 전송 오디오 프레임은 xHE-AAC의 헤더정보를 포함하고 있지 않고, 01인 경우 전송 오디오 프레임은 xHE-AAC의 헤더정보를 포함하는 것을 나타낼 수 있다.For example, as shown in Table 5, when the 2 bits expressed in the transmission audio frame are 00, the transmission audio frame does not include the header information of xHE-AAC, and when it is 01, the transmission audio frame includes the header information of xHE-AAC. It may indicate that it contains

위에서 언급한 바와 같이 전송되는 오디오 프레임의 비트스트림 정보에 따라 디코딩 장치 및 관련 디코딩 파라미터가 결정되며, 이러한 디코딩 파라미터는 하기와 같이 오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 의해 자동으로 결정될 수 있다.As mentioned above, a decoding apparatus and related decoding parameters are determined according to bitstream information of an audio frame to be transmitted, and these decoding parameters may be automatically determined by user parameters required when encoding an audio signal as follows.

오디오 코덱 비트율: 전송환경에 따른 오디오 신호의 비트율 설정Audio codec bit rate: Set the bit rate of the audio signal according to the transmission environment

오디오 레이아웃 타입: 모노 오디오 신호 또는 스테레오 오디오 신호Audio layout type: mono audio signal or stereo audio signal

MPEG Surround 사용 여부: 멀티채널 서비스 및 스테레오 신호와 하위 호환성 제공MPEG Surround enabled or not: Provides backwards compatibility with multichannel services and stereo signals

단순히 방송사업자가 상기와 같은 사용자 파라미터를 입력하면 xHE-AAC 코딩 방식의 오디오 인코딩 장치는 자동적으로 인코딩을 위한 파라미터를 세팅할 수 있다. 대부분의 사용자 파라미터는 정적인 파라미터로 세팅되어 전송되며, 간혹 프레임 단위로 변경이 되는 사용자 파라미터도 존재한다. SBR의 Dynamic Config 정보가 그 예이나, 대부분의 사용자 파라미터는 정적으로 한 번 세팅되면 변경없이 그대로 활용될 수 있다. xHE-AAC 코딩 방식의 Static Config 정보는 다음과 같은 구문 함수로 정의될 수 있다. 다음은 방송 사업자가 세팅한 사용자 파라미터 정보부터 최적의 인코더 파라미터 값을 세팅하기 위해 정적으로 정의되는 구문 요소로 xHEAACStaticConfig()로부터 시작하여 각 구문 요소 정보로부터 디코더 파라미터 값을 추출할 수 있다. When the broadcaster simply inputs the user parameters as described above, the audio encoding apparatus of the xHE-AAC coding method may automatically set the parameters for encoding. Most of the user parameters are set and transmitted as static parameters, and sometimes there are user parameters that are changed on a frame-by-frame basis. Although the Dynamic Config information of SBR is an example, most user parameters can be used as they are without change once they are statically set once. Static Config information of the xHE-AAC coding method may be defined as the following syntax function. The following is a syntax element statically defined to set an optimal encoder parameter value from user parameter information set by a broadcaster. Starting from xHEAACStaticConfig(), a decoder parameter value can be extracted from each syntax element information.

[표 6][Table 6]

Figure 112016041623377-pat00006
Figure 112016041623377-pat00006

표 6은 디코딩 장치의 형상을 결정하는 정보를 담고 있는 구문 함수일 수 있다. 본 함수를 시작으로 디코딩 장치의 형상이 세팅될 수 있다.Table 6 may be a syntax function containing information for determining the shape of the decoding device. Starting with this function, the shape of the decoding device may be set.

[표 7][Table 7]

Figure 112016041623377-pat00007
Figure 112016041623377-pat00007

[표 8] [Table 8]

Figure 112016041623377-pat00008
Figure 112016041623377-pat00008

표 8은 모노 오디오 신호를 디코딩하기 위한 디코딩 장치의 세팅에 필요한 정보를 제공하는 구문함수일 수 있다. 이하 구문함수 및 정보는 xHE-AAC에 정의된 것들과 동일하다. UsacCoreConfig 함수는 xHE-AAC 코딩 방식에서 코어코딩에 해당되는 디코딩 장치를 구동하기 위해 필요한 구문정보를 불러올 수 있다. xHE-AAC 코딩 방식에서 음질에 주되게 영향을 미치는 noiseFilling 구문정보만 정의하며, 고도의 연산량을 필요로 하는 Time-warpping 툴(tw_mdct)는 사용하지 않는 것으로 정의한다.Table 8 may be a syntax function providing information necessary for setting of a decoding apparatus for decoding a mono audio signal. The following syntax functions and information are the same as those defined in xHE-AAC. The UsacCoreConfig function may call syntax information necessary to drive a decoding device corresponding to core coding in the xHE-AAC coding method. In the xHE-AAC coding method, only noiseFilling syntax information that mainly affects sound quality is defined, and the time-warpping tool (tw_mdct), which requires a high amount of computation, is not used.

[표 9][Table 9]

Figure 112016041623377-pat00009
Figure 112016041623377-pat00009

표 9는 스테레오 오디오 신호를 디코딩하기 위한 디코딩 장치의 세팅에 필요한 정보를 제공하는 구문함수일 수 있다.Table 9 may be a syntax function providing information necessary for setting of a decoding apparatus for decoding a stereo audio signal.

[표 10][Table 10]

Figure 112016041623377-pat00010
Figure 112016041623377-pat00010

표10은 xHE-AAC 코딩 방식에 대한 SBR 디코딩 장치의 형상을 정의하는 구문정보일 수 있다. 주된 성능 영향을 미치는 harmonicSBR은 전송되는 비트 정보로부터 구문정보를 파싱하여 활용하고, 성능에 크게 영향을 미치지 못하고 복잡도를 증가시키는 기타 툴들은 활용하지 않을 수 있다.(bs_interTes, bs_pvc 등)Table 10 may be syntax information defining the shape of the SBR decoding apparatus for the xHE-AAC coding scheme. HarmonicSBR, which has a major performance impact, parses and utilizes syntax information from transmitted bit information, and other tools that do not significantly affect performance and increase complexity may not be used. (bs_interTes, bs_pvc, etc.)

[표 11][Table 11]

Figure 112016041623377-pat00011
Figure 112016041623377-pat00011

표 11은 SBR 파라미터를 디코딩하기 위한 세팅과 관련된 구문정보일 수 있다. 모두 USAC의 구문과 동일하며 추가적인 변동사항은 없다.Table 11 may be syntax information related to settings for decoding SBR parameters. All are identical to the USAC syntax, with no additional changes.

[표 12][Table 12]

Figure 112016041623377-pat00012
Figure 112016041623377-pat00012

표 12는 MPS212의 디코딩 장치의 형상을 세팅하기 위한 구문 함수 이다. xHE-AAC 코딩 방식에서 MPS의 형상은 비트율에 따라 SBR 코딩모드와 결합되어 다양하게 세팅될 수 있다. 각각의 구문정보는 xHE-AAC과 동일하고 특이사항은 'bsDecorrConfig'에 대한 구문정보는 전송하지 않는다는 점이다. 이는 xHE-AAC 코딩 방식의 MPS 모듈이 항상 bsDecorrConfig == 0이기 때문이다.Table 12 is a syntax function for setting the shape of the decoding device of the MPS212. In the xHE-AAC coding scheme, the shape of the MPS may be variously set in combination with the SBR coding mode according to the bit rate. Each syntax information is the same as that of xHE-AAC, and the special thing is that the syntax information for 'bsDecorrConfig' is not transmitted. This is because the MPS module of the xHE-AAC coding method always has bsDecorrConfig == 0.

도 5는 본 발명의 일실시예에 따른 xHE-AAC 슈퍼 프레임의 구조의 예를 도시한 도면이다.5 is a diagram illustrating an example of the structure of an xHE-AAC super frame according to an embodiment of the present invention.

본 발명의 일실시예에 따른 인코딩 장치(200)는 수신된 오디오 신호를 인코딩한 결과 생성된 오디오 스트림을 고정된 크기의 오디오 슈퍼 프레임으로 구성할 수 있다. 이때, xHE-AAC 코딩 방식으로 인코딩된 오디오 스트림은 다수의 프레임이 경계구분 없이 하나의 오디오 슈퍼 프레임으로 구성되어 전송될 수 있다.The encoding apparatus 200 according to an embodiment of the present invention may configure an audio stream generated as a result of encoding the received audio signal into an audio super frame having a fixed size. In this case, the audio stream encoded by the xHE-AAC coding scheme may be transmitted in which a plurality of frames are configured as one audio super frame without dividing boundaries.

xHE-AAC 코딩 방식으로 구성된 오디오 슈퍼 프레임은 고정된 크기를 가지며 헤더 섹션(Header section), 페이로드 섹션(Payload section) 및 디렉토리 섹션(Directory section)으로 구성될 수 있다. An audio super frame configured by the xHE-AAC coding scheme has a fixed size and may be composed of a header section, a payload section, and a directory section.

헤더 섹션은 오디오 슈퍼 프레임에 포함되어 있는 오디오 프레임의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(reservoir fill level)에 대한 정보를 가질 수 있다. The header section may have information on the number of boundaries of audio frames included in the audio super frame and information on a reserve fill level of the first audio frame.

페이로드 섹션은 오디오 프레임에 대한 비트정보를 가지고 있는 섹션으로 바이트 단위로 비트 열을 저장할 수 있다. 오디오 프레임 간의 경계에는 별다른 추가 패딩(padding) 바이트 없이 오디오 프레임 별로 비트열의 길이에 상관없이 연속적으로 붙여서 전송될 수 있다.The payload section is a section that has bit information about an audio frame and can store a bit stream in byte units. The boundary between audio frames may be continuously attached and transmitted for each audio frame regardless of the length of the bit string without any additional padding bytes.

디렉토리 섹션은 오디오 프레임 별 비트열의 경계 위치 정보를 가질 수 있다. 이때, 위치정보는 해당 슈퍼 프레임 내에서만 정의되고, 바이트 단위 카운트로 위치를 설명해 줄 수 있으며 헤더 섹션에서 추출한 'b'개의 프레임 경계에 대한 위치 정보를 제공할 수 있다. The directory section may have boundary position information of a bit string for each audio frame. In this case, the location information is defined only within the corresponding super frame, the location can be explained by a byte unit count, and location information about the 'b' frame boundaries extracted from the header section can be provided.

[표 13][Table 13]

Figure 112016041623377-pat00013
Figure 112016041623377-pat00013

표 13에서 bsFrameBorderCount는 임의의 하나의 오디오 슈퍼 프레임 유료부하 부분에 실어 보낼 수 있는 오디오 프레임 비트열의 경계 수를 나타내는 정보이다. 만일 오디오 슈퍼 프레임에 포함되는 마지막 오디오 프레임의 비트 열이 온전히 오디오 슈퍼 프레임 안에 포함될 수 있다면 오디오 프레임에 대한 경계 카운트의 수는 페이로드 섹션에 전송되는 오디오 프레임의 수와 동일할 수 있다.In Table 13, bsFrameBorderCount is This is information indicating the number of boundaries of the audio frame bit string that can be carried and transmitted in any one audio super frame payload part. If the bit stream of the last audio frame included in the audio super frame can be completely included in the audio super frame, the number of boundary counts for the audio frame may be equal to the number of audio frames transmitted in the payload section.

bsBitReservoirLevel은 오디오 슈퍼 프레임에 포함되는 첫 번째 오디오 프레임의 비트 소진 레벨을 표시할 수 있다. 만일 포함된 오디오 프레임의 경계가 없다면 오디오 슈퍼 프레임의 전체 비트 소진 레벨을 나타낼 수 있다. FixedHeaderCRC는 헤더 섹션에 대한 CRC(Cyclic redundancy check) 코드로 8bit를 할당 할 수 있다. bsFrameBorderIndex는 오디오 슈퍼 프레임에 포함된 마지막 오디오 프레임의 경계로부터 역순으로 그 위치 정보를 제공할 수 있다. 이때, 위치 정보에 대한 인덱스 정보는 14bit를 이용하여 나타낼 수 있다. bsFrameBorderCount는 오디오 프레임의 경계 카운트에 대한 정보를 제공할 수 있다. 이때, 경계 카운트에 대한 정보는 4bit를 이용하여 나타낼 수 있으며, 만일 헤더 정보에 에러가 발생하더라도 다수의 경계 카운트 정보가 존재함으로써 디코딩 장치에서 오디오 프레임 경계를 찾아 가는데 문제가 발생하지 않을 수 있다.bsBitReservoirLevel may indicate the bit exhaustion level of the first audio frame included in the audio super frame. If there is no boundary of the included audio frame, it may represent the total bit exhaustion level of the audio super frame. FixedHeaderCRC can allocate 8 bits as a CRC (Cyclic redundancy check) code for the header section. bsFrameBorderIndex may provide position information in reverse order from the boundary of the last audio frame included in the audio super frame. In this case, the index information for the location information may be represented using 14 bits. bsFrameBorderCount may provide information on the border count of an audio frame. In this case, the boundary count information may be represented using 4 bits, and even if an error occurs in the header information, there may be a plurality of boundary count information, so that the decoding apparatus may not have a problem in finding the audio frame boundary.

도 6은 본 발명의 일실시예에 따른 복수의 xHE-AAC 오디오 프레임의 슈퍼 프레임 유료부하 구성의 예를 도시한 도면이다.6 is a diagram illustrating an example of a super frame payload configuration of a plurality of xHE-AAC audio frames according to an embodiment of the present invention.

오디오 슈퍼 프레임의 유로부하 부분에 전송되는 오디오 프레임의 비트열은 실제 고정된 오디오 프레임 단위의 오디오 신호를 입력 받아 인코딩한 결과를 비트 열로 표현하여 오디오 프레임을 구성할 수 있다. 이때, 비트열은 바이트 단위로 구성되며, 16bit의 CRC 코드가 포함되어 있다. The bit stream of the audio frame transmitted to the flow path load part of the audio super frame receives an audio signal in units of an actual fixed audio frame and expresses the encoded result as a bit string to form an audio frame. In this case, the bit string is configured in units of bytes, and a 16-bit CRC code is included.

xHE-AAC access unit(AU)은 실제 xHE-AAC 코딩 방식의 디코딩 장치를 통하여 오디오 신호를 생성하는데 활용되는 정보이다. xHE-AAC 코딩 방식의 가변 비트율에 따라 인코딩을 진행하므로, AU의 사이즈는 동일한 사이즈의 오디오 프레임 신호라도 달라질 수 있다. AU의 첫번째 비트는 usacIndependencyFlag에 대한 것으로 usacIndependencyFlag이 '1'이어야 이전프레임의 정보 없이 현재 프레임의 오디오 신호를 디코딩 할 수 있다. 따라서 하나의 오디오 슈퍼 프레임에 적어도 한 개의 오디오 프레임이 존재하여야 하며, 적어도 하나의 usacIndependencyFlag는 1로 되어 있어야 한다. The xHE-AAC access unit (AU) is information used to generate an audio signal through a decoding device of an actual xHE-AAC coding scheme. Since encoding is performed according to the variable bit rate of the xHE-AAC coding scheme, the size of the AU may be different even for an audio frame signal having the same size. The first bit of the AU is for usacIndependencyFlag. When usacIndependencyFlag is '1', the audio signal of the current frame can be decoded without information on the previous frame. Therefore, at least one audio frame must exist in one audio super frame, and at least one usacIndependencyFlag must be set to 1.

xHE-AAC access unit CRC는 xHE-AAC access unit에 대한 CRC 코드도 생성하며 오디오 프레임당 16bit를 할당하여 CRC 코드를 생성할 수 있다.The xHE-AAC access unit CRC also generates a CRC code for the xHE-AAC access unit, and can generate a CRC code by allocating 16 bits per audio frame.

연속적으로 입력되는 오디오 프레임 신호는 각각이 xHE-AAC 코딩 방식을 이용한 인코딩 과정을 거쳐 AU로 변환될 수 있다. 고정 비트율은 장구간을 두고 보장할 수 있으나, 각 오디오 프레임 별 소진되는 비트수는 고정적이지 않을 수 있다. 따라서 오디오 프레임의 AU는 그 길이를 오디오 슈퍼 프레임 내에서 다르게 정의 될 수 있다. 이는 인코딩되는 오디오 신호의 품질을 높이기 위한 것으로 장구간에서 난이도가 높은 오디오 프레임에 대해서 많은 비트를 할당하고 지각적으로 중요하지 못한 오디오 프레임에 대해서는 적은 비트를 할당할 수 있도록 비트 소진 레벨을 참조하여 결정할 수 있다. 비트 소진 레벨을 디코딩 장치에 전달하는 것은 입력되는 AU 버퍼 사이즈를 줄일 수 있으며, 추가적인 오디오 디코딩 장치의 지연시간을 줄일 수 있기 때문이다. Each of the continuously input audio frame signals may be converted into AUs through an encoding process using the xHE-AAC coding scheme. The fixed bit rate can be guaranteed over a long period, but the number of bits consumed for each audio frame may not be fixed. Accordingly, the length of the AU of the audio frame may be defined differently within the audio super frame. This is to increase the quality of the encoded audio signal. It is determined by referring to the bit exhaustion level so that many bits can be allocated to an audio frame with high difficulty in a long section and a small number of bits can be allocated to an audio frame that is not perceptually important. can This is because transferring the bit exhaustion level to the decoding apparatus can reduce the input AU buffer size and reduce the delay time of the additional audio decoding apparatus.

xHE-AAC 코딩 방식의 인코딩 장치는 전송을 위한 슈퍼프레임을 생성할 수 있다. 오디오 프레임에 대한 비트열의 바이트 정렬을 위해 xHE-AAC AU는 Null 비트를 채워 바이트 단위로 맞출 수 있다. The encoding device of the xHE-AAC coding scheme may generate a superframe for transmission. For byte alignment of the bit string for the audio frame, xHE-AAC AU can be aligned in bytes by filling in the Null bit.

오디오 프레임의 경계는 오디오 슈퍼 프레임과 그 경계를 맞출 필요는 없으며 오디오 프레임의 AU에 대한 비트열은 오디오 신호의 입력에 따라 순차적으로 가변 비트열로 연결되어 오디오 슈퍼 프레임의 고정 비트율에 맞추어 잘라져서 전송될 수 있다. The boundary of the audio frame does not need to align with the audio super frame, and the bit string for the AU of the audio frame is sequentially connected as a variable bit string according to the input of the audio signal, and is cut according to the fixed bit rate of the audio super frame and transmitted. can be

따라서 하나의 오디오 슈퍼 프레임에는 가변적 갯수의 오디오 프레임의 AU가 포함될 수 있다. 그러나 오디오 슈퍼 프레임의 헤더정보와 디렉토리 정보에서 추출된 AU 경계정보를 기반으로 오디오 프레임의 AU를 추출하여 디코딩 할 수 있다. Accordingly, one audio super frame may include AUs of a variable number of audio frames. However, it is possible to extract and decode the AU of the audio frame based on the header information of the audio super frame and the AU boundary information extracted from the directory information.

만일 임의의 오디오 프레임의 AU에 대한 비트열이 하나의 오디오 슈퍼 프레임에 1바이트 이상 걸치지 않는다면, 디렉토리 섹션에서는 '프레임 경계 정보'에 대한 구문정보를 포함하지 않을 수 있다. 정확히는 '프레임 경계 정보'와 관련된 2 바이트를 포함해서 3바이트 미만의 오디오 프레임 데이터 AU의 경계 정보는 현재의 오디오 슈퍼 프레임에서 경계정보를 추출할 수 없다. If the bit string for the AU of any audio frame does not span 1 byte or more in one audio super frame, the directory section may not include syntax information for 'frame boundary information'. Exactly, boundary information of audio frame data AU less than 3 bytes including 2 bytes related to 'frame boundary information' cannot extract boundary information from the current audio super frame.

이럴 경우에는 다음 오디오 슈퍼 프레임에서 이를 표현하는데 디렉토리 섹션의 마지막 '프레임 경계 정보'가 이에 대한 정보를 나타낼 수 있다. 예를 들어, 마지막 '프레임 경계 정보'가 0xFFF로 명시되어 있으면, 마지막 오디오 프레임에 대한 AU의 마지막 바이트 정보는 이전프레임에 걸쳐 있다는 것이며, 디코딩 장치는 마지막 AU프레임의 디코딩을 위하여 이전 오디오 슈퍼 프레임의 유료부하 부분에서 2바이트의 데이터를 항상 버퍼링하고 있어야 한다. In this case, it is expressed in the next audio super frame, and the last 'frame boundary information' of the directory section may indicate information about this. For example, if the last 'frame boundary information' is specified as 0xFFF, the last byte information of the AU for the last audio frame spans the previous frame, and the decoding device uses the previous audio super frame for decoding the last AU frame. 2 bytes of data should always be buffered in the payload part.

비트 소진 제어 장치는 MPEG 코드에서 일반적으로 활용되는 메커니즘이다. 이는 단구간에서는 가변적인 비트율을 보이나, 장구간에서는 고정된 비트율을 출력할 수 있으므로, 주어진 구간 내에서 최선의 음질을 제공할 수 있다. 따라서 xHE-AAC 코딩 방식은 비트소진 레벨이 충분히 높다면, 현재의 프레임들을 코딩하는데 비트를 추가적으로 필요하면 할당하고 그 비트소진 레벨을 낮출 수 있다. 이와는 반대로 더 이상 비트를 소진해야 할 상황이 아니라면, 비트소진 레벨을 높여서 이후 필요한 구간에서 비트를 활용할 수 있도록 할 수 있다.Bit exhaustion control is a mechanism commonly utilized in MPEG codes. This shows a variable bit rate in a short section, but can output a fixed bit rate in a long section, so that the best sound quality can be provided within a given section. Accordingly, in the xHE-AAC coding scheme, if the bit exhaustion level is sufficiently high, additional bits may be allocated for coding current frames if necessary, and the bit exhaustion level may be lowered. Conversely, if it is no longer necessary to exhaust the bits, the bit exhaustion level may be increased to allow the bits to be used in a later required section.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

200 : 인코딩 장치
210 : 수신부
220 : 결정부
230 : 인코딩부
240 : 구성부
400 : 디코딩 장치
410 : 수신부
420 : 추출부
430 : 디코딩부
200: encoding device
210: receiver
220: decision part
230: encoding unit
240: constituent part
400: decoding device
410: receiver
420: extraction unit
430: decoding unit

Claims (19)

적어도 하나 이상의 프로세서에 의해 수행되는 오디오 신호 인코딩 방법에 있어서,
오디오 신호를 수신하는 단계;
상기 수신된 오디오 신호의 각 오디오 슈퍼 프레임에 대한 코딩 방식을 결정하는 단계; 및
상기 각 오디오 슈퍼 프레임에 대해 상기 결정된 코딩 방식에 기초하여 상기 수신된 오디오 신호를 인코딩하는 단계; 및
상기 오디오 신호를 인코딩한 결과 생성된 오디오 스트림을 고정된 크기의 오디오 슈퍼 프레임으로 구성하는 단계
를 포함하고,
상기 코딩 방식은,
USAC(Unified Speech Audio Coding)과 관련된Extended HE-AAC(High Efficient Advanced Audio Codec)의 제1 코딩 방식과 상기 USAC이 아닌 기존의 AAC 계열의 제2 코딩 방식을 포함하고,
(i)상기 코딩 방식이 제1 코딩 방식으로 결정된 경우, 상기 인코딩 하는 단계는,
상기 수신된 오디오 신호에 대해 MPS212 인코딩을 수행하는 단계;
상기 MPS212 인코딩을 수행하여 출력된 오디오 신호에 대해 eSBR(enhanced Spectral Band Replication)을 수행하는 단계; 및
상기 eSBR을 수행하여 출력된 오디오 신호에 대해 코어 인코딩을 수행하는 단계를 포함하고,
(ii)상기 코딩 방식이 제2 코딩 방식으로 결정된 경우, 상기 인코딩 하는 단계는,
상기 수신된 오디오 신호에 대해 PS(Parametric Stereo) 및 SBR(Spectral Band Replication)을 수행하는 단계; 및
상기 PS 및 SBR을 수행하여 출력된 오디오 신호에 대해 상기 제2 코딩 방식을 이용하여 인코딩을 수행하는 단계
를 포함하는 상기 오디오 슈퍼 프레임은,
상기 수신된 오디오 신호가 제1 코딩 방식에 기초하여 인코딩된 경우, 상기 제1 코딩 방식의 헤더정보를 포함하는지의 여부에 대한 구문 정보를 포함하는 오디오 신호 인코딩 방법.
An audio signal encoding method performed by at least one processor, the method comprising:
receiving an audio signal;
determining a coding scheme for each audio super frame of the received audio signal; and
encoding the received audio signal based on the determined coding scheme for each audio super frame; and
composing an audio stream generated as a result of encoding the audio signal into an audio super frame of a fixed size;
including,
The coding scheme is
It includes a first coding scheme of Extended High Efficient Advanced Audio Codec (HE-AAC) related to Unified Speech Audio Coding (USAC) and a second coding scheme of an existing AAC series other than the USAC,
(i) When the coding scheme is determined as the first coding scheme, the encoding comprises:
performing MPS212 encoding on the received audio signal;
performing enhanced Spectral Band Replication (eSBR) on the audio signal output by performing the MPS212 encoding; and
performing core encoding on the audio signal output by performing the eSBR;
(ii) When the coding scheme is determined as the second coding scheme, the encoding comprises:
performing Parametric Stereo (PS) and Spectral Band Replication (SBR) on the received audio signal; and
encoding an audio signal output by performing the PS and SBR using the second coding scheme;
The audio super frame comprising:
When the received audio signal is encoded based on a first coding scheme, the audio signal encoding method including syntax information on whether header information of the first coding scheme is included.
제1항에 있어서,
상기 수신하는 단계는,
상기 수신된 오디오 신호의 종류가 멀티채널 오디오 신호인지 또는 모노/스테레오 오디오 신호인지 판단하는 단계; 및
상기 수신된 오디오 신호가 멀티채널 오디오 신호로 판단되면 MPS 인코딩을 수행하는 단계
를 더 포함하는 오디오 신호 인코딩 방법.
According to claim 1,
The receiving step is
determining whether the received audio signal is a multi-channel audio signal or a mono/stereo audio signal; and
performing MPS encoding when it is determined that the received audio signal is a multi-channel audio signal
An audio signal encoding method further comprising a.
삭제delete 삭제delete 제1항에 있어서,
상기 오디오 슈퍼 프레임은,
상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성되는 오디오 신호 인코딩 방법.
The method of claim 1,
The audio super frame,
A header section including information on the number of boundaries of audio frames included in the audio super frame and information on a reserve fill level of a first audio frame, and bit information of audio frames included in the audio super frame An audio signal encoding method comprising: a payload section including
제1항에 있어서,
상기 오디오 슈퍼 프레임에 대한 순방향 에러 정정 기술을 적용하는 단계
를 더 포함하고,
상기 적용하는 단계는,
상기 오디오 슈퍼 프레임이 통신 선로상에 전송되는 과정에서 발생한 비트 오류를 정정하는 오디오 신호 인코딩 방법.
According to claim 1,
applying a forward error correction technique to the audio super frame;
further comprising,
The applying step is
An audio signal encoding method for correcting a bit error occurring while the audio super frame is transmitted over a communication line.
오디오 신호를 수신하는 수신부;
상기 수신된 오디오 신호의 각 오디오 슈퍼 프레임에 대한 코딩 방식을 결정하는 결정부; 및
상기 각 오디오 슈퍼 프레임에 대해 결정된 코딩 방식에 기초하여 상기 수신된 오디오 신호를 인코딩하는 인코딩부;
를 포함하고,
상기 코딩 방식은,
USAC(Unified Speech Audio Coding)과 관련된 제1 코딩 방식과 상기 USAC이 아닌 AAC 계열의 제2 코딩 방식을 포함하고,
(i)상기 코딩 방식이 제1 코딩 방식으로 결정된 경우, 상기 인코딩부는,
상기 수신된 오디오 신호에 대해 MPS 인코딩을 위한 도구인 MPS212 인코딩을 수행하고, 상기 MPS212 인코딩을 수행하여 출력된 오디오 신호에 대해 eSBR(enhanced Spectral Band Replication)을 수행하며, 상기 eSBR을 수행하여 출력된 오디오 신호에 대해 코어 인코딩을 수행하고,
(ii)상기 코딩 방식이 제2 코딩 방식으로 결정된 경우, 상기 인코딩부는,
상기 수신된 오디오 신호에 대해 PS(Parametric Stereo) 및 SBR(Spectral Band Replication)을 수행하고, 상기 PS 및 SBR을 수행하여 출력된 오디오 신호에 대해 상기 제2 코딩 방식을 이용하여 인코딩을 수행하는 오디오 신호 인코딩 장치.
a receiver for receiving an audio signal;
a determining unit for determining a coding scheme for each audio super frame of the received audio signal; and
an encoding unit for encoding the received audio signal based on a coding scheme determined for each audio super frame;
including,
The coding scheme is
It includes a first coding scheme related to USAC (Unified Speech Audio Coding) and a second coding scheme of the AAC series other than the USAC,
(i) When the coding scheme is determined as the first coding scheme, the encoding unit,
MPS212 encoding, which is a tool for MPS encoding, is performed on the received audio signal, enhanced Spectral Band Replication (eSBR) is performed on the audio signal output by performing the MPS212 encoding, and audio output by performing the eSBR perform core encoding on the signal,
(ii) when the coding scheme is determined as the second coding scheme, the encoding unit,
An audio signal for performing Parametric Stereo (PS) and Spectral Band Replication (SBR) on the received audio signal, and encoding an audio signal output by performing PS and SBR using the second coding scheme. encoding device.
삭제delete 삭제delete 제7항에 있어서,
상기 오디오 슈퍼 프레임은,
상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성되는 오디오 신호 인코딩 장치.
8. The method of claim 7,
The audio super frame,
A header section including information on the number of boundaries of audio frames included in the audio super frame and information on a reserve fill level of a first audio frame, and bit information of audio frames included in the audio super frame An audio signal encoding apparatus comprising a payload section including
적어도 하나 이상의 프로세서에 의해 수행되는 오디오 신호 디코딩 방법에 있어서,
오디오 슈퍼 프레임을 포함하는 오디오 신호를 수신하는 단계;
상기 수신된 오디오 신호의 오디오 슈퍼 프레임에 대한 디코딩 방식을 결정하는 단계; 및
상기 오디오 슈퍼 프레임에 대해 결정된 디코딩 방식에 기초하여 상기 오디오 슈퍼 프레임을 디코딩하는 단계
를 포함하고,
상기 디코딩 방식은,
USAC(Unified Speech Audio Coding)과 관련된 제1 디코딩 방식과 상기 USAC이 아닌 AAC 계열의 제2 디코딩 방식을 포함하고,
(i)상기 디코딩 방식이 제1 디코딩 방식으로 결정된 경우, 상기 디코딩 하는 단계는,
상기 수신된 오디오 슈퍼 프레임에 대해 코어 디코딩을 수행하는 단계;
상기 코어 디코딩을 수행하여 출력된 오디오 신호에 대해 eSBR(enhanced Spectral Band Replication)을 수행하는 단계; 및
상기 eSBR을 수행하여 출력된 오디오 신호에 대해 MPS212 디코딩을 수행하는 단계
를 포함하고,
(ii)상기 디코딩 방식이 제2 디코딩 방식으로 결정된 경우, 상기 디코딩 하는 단계는,
상기 수신된 오디오 슈퍼 프레임에 대해 상기 제2 디코딩 방식을 이용하여 디코딩을 수행하는 단계; 및
상기 제2 디코딩 방식을 이용하여 디코딩을 수행하여 출력된 오디오 신호에 대해 PS(Parametric Stereo) 및 SBR(Spectral Band Replication)을 수행하는 단계
를 포함하는 오디오 신호 디코딩 방법.
An audio signal decoding method performed by at least one processor, the method comprising:
receiving an audio signal comprising an audio super frame;
determining a decoding method for an audio super frame of the received audio signal; and
decoding the audio super frame based on a decoding scheme determined for the audio super frame;
including,
The decoding method is
It includes a first decoding method related to USAC (Unified Speech Audio Coding) and a second decoding method of the AAC series other than the USAC,
(i) when the decoding method is determined as the first decoding method, the decoding step,
performing core decoding on the received audio super frame;
performing enhanced Spectral Band Replication (eSBR) on the audio signal output by performing the core decoding; and
performing MPS212 decoding on the audio signal output by performing the eSBR
including,
(ii) when the decoding method is determined as the second decoding method, the decoding step,
performing decoding on the received audio super frame using the second decoding scheme; and
performing Parametric Stereo (PS) and Spectral Band Replication (SBR) on the audio signal output by performing decoding using the second decoding method
An audio signal decoding method comprising a.
제11항에 있어서,
상기 결정하는 단계는,
상기 수신된 오디오 슈퍼 프레임으로부터 디코딩 파라미터를 추출하는 단계; 및
상기 추출된 디코딩 파라미터에 기초하여 제1 디코딩 방식 및 제2 디코딩 방식 중 적어도 하나의 디코딩 방식을 결정하는 단계
를 포함하는 오디오 신호 디코딩 방법.
12. The method of claim 11,
The determining step is
extracting decoding parameters from the received audio super frame; and
determining at least one decoding method among a first decoding method and a second decoding method based on the extracted decoding parameter
An audio signal decoding method comprising a.
제12항에 있어서,
상기 디코딩 파라미터는,
오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 따라 자동적으로 결정되고,
상기 사용자 파라미터는,
상기 오디오 신호에 대한 코덱의 비트율 정보, 상기 오디오 신호의 레이아웃 타입 정보 및 상기 오디오 신호에 대한 MPEG Surround 사용 여부 정보 중 적어도 하나의 정보를 포함하는 오디오 신호 디코딩 방법.
13. The method of claim 12,
The decoding parameters are
is automatically determined according to the user parameters required when encoding the audio signal,
The user parameters are
An audio signal decoding method comprising at least one of bit rate information of a codec for the audio signal, layout type information of the audio signal, and information on whether MPEG Surround is used for the audio signal.
삭제delete 삭제delete 제11항에 있어서,
상기 오디오 슈퍼 프레임은,
상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 경계에 대한 개수 정보 및 첫 번째 오디오 프레임의 비트 소진 레벨(Reservoir fill level)에 대한 정보를 포함하는 헤더 섹션, 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임들의 비트정보를 포함하는 페이로드 섹션 및 상기 오디오 슈퍼 프레임에 포함된 오디오 프레임 별 비트열의 경계 위치 정보를 포함하는 디렉토리 섹션으로 구성되는 오디오 신호 디코딩 방법.
12. The method of claim 11,
The audio super frame,
A header section including information on the number of boundaries of audio frames included in the audio super frame and information on a reserve fill level of a first audio frame, and bit information of audio frames included in the audio super frame An audio signal decoding method comprising: a payload section including
오디오 슈퍼 프레임을 포함하는 오디오 신호를 수신하는 수신부;
상기 수신된 오디오 신호의 오디오 슈퍼 프레임에 대한 디코딩 방식을 결정하는 결정부; 및
상기 오디오 슈퍼 프레임에 대해 결정된 디코딩 방식에 기초하여 상기 오디오 슈퍼 프레임을 디코딩하는 디코딩부
를 포함하고,
상기 디코딩 방식은,
USAC(Unified Speech Audio Coding)과 관련된 제1 디코딩 방식과 상기 USAC이 아닌 AAC 계열의 제2 디코딩 방식을 포함하고,
(i)상기 디코딩 방식이 제1 디코딩 방식으로 결정된 경우, 상기 디코딩부는,
상기 수신된 오디오 슈퍼 프레임에 대해 코어 디코딩을 수행하고, 상기 코어 디코딩을 수행하여 출력된 오디오 신호에 대해 eSBR(enhanced Spectral Band Replication)을 수행하며, 상기 eSBR을 수행하여 출력된 오디오 신호에 대해 MPS212 디코딩을 수행하고,
(ii)상기 디코딩 방식이 제2 디코딩 방식으로 결정된 경우, 상기 디코딩부는,
상기 수신된 오디오 슈퍼 프레임에 대해 상기 제2 디코딩 방식을 이용하여 디코딩을 수행하고, 상기 제2 디코딩 방식을 이용하여 디코딩을 수행하여 출력된 오디오 신호에 대해 PS(Parametric Stereo) 및 SBR(Spectral Band Replication)을 수행하는 오디오 신호 디코딩 장치.
a receiver for receiving an audio signal including an audio super frame;
a determining unit for determining a decoding method for an audio super frame of the received audio signal; and
A decoding unit for decoding the audio super frame based on the decoding method determined for the audio super frame
including,
The decoding method is
It includes a first decoding method related to USAC (Unified Speech Audio Coding) and a second decoding method of the AAC series other than the USAC,
(i) when the decoding method is determined as the first decoding method, the decoding unit,
Core decoding is performed on the received audio super frame, enhanced Spectral Band Replication (eSBR) is performed on an audio signal output by performing core decoding, and MPS212 decoding is performed on an audio signal output by performing eSBR do,
(ii) when the decoding method is determined as the second decoding method, the decoding unit,
Decoding is performed on the received audio super frame using the second decoding method, and Parametric Stereo (PS) and Spectral Band Replication (SBR) are performed on an audio signal output by performing decoding using the second decoding method. ), an audio signal decoding device that performs
제17항에 있어서,
상기 결정부는,
상기 수신된 오디오 슈퍼 프레임으로부터 디코딩 파라미터를 추출하고, 상기 추출된 디코딩 파라미터에 기초하여 제1 디코딩 방식 및 제2 디코딩 방식 중 적어도 하나의 디코딩 방식을 결정하는 오디오 신호 디코딩 장치.
18. The method of claim 17,
The determining unit is
An audio signal decoding apparatus for extracting a decoding parameter from the received audio super frame, and determining at least one of a first decoding scheme and a second decoding scheme based on the extracted decoding parameter.
제18항에 있어서,
상기 디코딩 파라미터는,
오디오 신호를 인코딩할 때 필요한 사용자 파라미터에 따라 자동적으로 결정되고,
상기 사용자 파라미터는,
상기 오디오 신호에 대한 코덱의 비트율 정보, 상기 오디오 신호의 레이아웃 타입 정보 및 상기 오디오 신호에 대한 MPEG Surround 사용 여부 정보 중 적어도 하나의 정보를 포함하는 오디오 신호 디코딩 장치.

19. The method of claim 18,
The decoding parameters are
is automatically determined according to the user parameters required when encoding the audio signal,
The user parameters are
An audio signal decoding apparatus comprising at least one of bit rate information of a codec for the audio signal, layout type information of the audio signal, and information on whether MPEG Surround is used for the audio signal.

KR1020160053168A 2015-09-11 2016-04-29 Usac audio signal encoding/decoding apparatus and method for digital radio services KR102457303B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/260,717 US10008214B2 (en) 2015-09-11 2016-09-09 USAC audio signal encoding/decoding apparatus and method for digital radio services

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150129124 2015-09-11
KR20150129124 2015-09-11

Publications (2)

Publication Number Publication Date
KR20170031604A KR20170031604A (en) 2017-03-21
KR102457303B1 true KR102457303B1 (en) 2022-10-21

Family

ID=58502606

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160053168A KR102457303B1 (en) 2015-09-11 2016-04-29 Usac audio signal encoding/decoding apparatus and method for digital radio services

Country Status (1)

Country Link
KR (1) KR102457303B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050262419A1 (en) * 2004-04-29 2005-11-24 Ralf Becker Superframe error coding in digital audio broadcasting systems

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9679571B2 (en) * 2013-04-10 2017-06-13 Electronics And Telecommunications Research Institute Encoder and encoding method for multi-channel signal, and decoder and decoding method for multi-channel signal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050262419A1 (en) * 2004-04-29 2005-11-24 Ralf Becker Superframe error coding in digital audio broadcasting systems

Also Published As

Publication number Publication date
KR20170031604A (en) 2017-03-21

Similar Documents

Publication Publication Date Title
RU2658535C1 (en) Decoding of bitstreams of audio with metadata extended copying of the spectral band in at least one filler
KR100904438B1 (en) Method and apparatus for processing an audio signal
US10008214B2 (en) USAC audio signal encoding/decoding apparatus and method for digital radio services
JP3186472U (en) Audio decoder using program information metadata
JP2018530000A (en) Layered encoding and data structure for compressed higher-order ambisonics sound or sound field representation
JP6286554B2 (en) Apparatus and method for decoding encoded audio signal using low computational resources
KR102457303B1 (en) Usac audio signal encoding/decoding apparatus and method for digital radio services
ES2770029T3 (en) Audio bitstream decoding with enhanced spectral band replication metadata in at least one filler element
KR20080006456A (en) Method and apparatus for encoding and decoding extension data for surround
OA18768A (en) Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant