KR20160022364A - 안락 잡음의 적응형 스펙트럼 형태를 생성하기 위한 장치 및 방법 - Google Patents

안락 잡음의 적응형 스펙트럼 형태를 생성하기 위한 장치 및 방법 Download PDF

Info

Publication number
KR20160022364A
KR20160022364A KR1020167001564A KR20167001564A KR20160022364A KR 20160022364 A KR20160022364 A KR 20160022364A KR 1020167001564 A KR1020167001564 A KR 1020167001564A KR 20167001564 A KR20167001564 A KR 20167001564A KR 20160022364 A KR20160022364 A KR 20160022364A
Authority
KR
South Korea
Prior art keywords
audio signal
domain
received
noise
coefficients
Prior art date
Application number
KR1020167001564A
Other languages
English (en)
Other versions
KR101785227B1 (ko
Inventor
미하엘 슈나벨
고란 마르코비치
랄프 스퍼슈나이더
제레미 르콩트
크리스티안 헴리히
Original Assignee
프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. filed Critical 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베.
Publication of KR20160022364A publication Critical patent/KR20160022364A/ko
Application granted granted Critical
Publication of KR101785227B1 publication Critical patent/KR101785227B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/083Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0011Long term prediction filters, i.e. pitch estimation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0016Codebook for LPC parameters

Abstract

재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치가 제공된다. 장치는 하나 이상의 프레임들을 수신하기 위한 수신 인터페이스(1110), 계수 생성기(1120), 및 신호 재구성기(1130)를 포함한다. 계수 생성기(1120)는 하나 이상의 프레임들의 현재 프레임이 수신 인터페이스(1110)에 의해 수신되면, 그리고 수신 인터페이스(1110)에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 현재 프레임에 의해 포함되는 하나 이상의 제 1 오디오 신호 계수들을 결정하도록 구성되고, 상기 하나 이상의 제 1 오디오 신호 계수들은 인코딩된 오디오 시호의 특징을 나타내고, 하나 이상의 잡음 계수들은 인코딩된 오디오 신호의 배경 잡음을 나타낸다. 더욱이, 계수 생성기(1120)는, 현재 프레임이 수신 인터페이스(1110)에 의해 수신되지 않으면, 또는 수신 인터페이스(1110)에 의해 수신되는 현재 프레임이 붕괴되면, 하나 이상의 제 1 오디오 신호 계수들에 따라, 그리고 하나 이상의 잡음 계수들에 따라 하나 이상의 제 2 오디오 신호 계수들을 생성하도록 구성된다. 더욱이, 오디오 신호 재구성기(1130)는, 현재 프레임이 수신 인터페이스(1110)에 의해 수신되면, 그리고 수신 인터페이스(1110)에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 하나 이상의 제 1 오디오 신호 계수들에 따라 재구성된 오디오 신호의 제 1 부분을 재구성하도록 구성된다. 더욱이, 오디오 신호 재구성기(1130)는, 현재 프레임이 수신 인터페이스(1110)에 의해 수신되지 않으면, 또는 수신 인터페이스(1110)에 의해 수신되는 현재 프레임이 붕괴되면, 하나 이상의 제 2 오디오 신호 계수들에 따라 재구성된 오디오 신호의 제 2 부분을 재구성하도록 구성된다.

Description

안락 잡음의 적응형 스펙트럼 형태를 생성하기 위한 장치 및 방법{APPARATUS AND METHOD FOR GENERATING AN ADAPTIVE SPECTRAL SHAPE OF COMFPORT NOISE}
본 발명은 오디오 신호 인코딩, 처리 및 디코딩에 관한 것으로, 특히 에러 은닉(error concealment) 동안 스위칭된 오디오 코딩 시스템들에 대해 개선된 신호 페이드 아웃(fade out)을 위한 장치 및 방법에 관한 것이다.
다음에서, 종래 기술은 패킷 손실 은닉(PLC) 동안 음성 및 오디오 코덱 페이드 아웃에 관해 기재된다. 종래 기술에 관한 설명들은 G-시리즈(G.718, G.719, G.722, G.722.1, G.729, G.729.1)의 ITU-T에서 시작하여, 뒤이어 3GPP 코덱들(AMR, AMR-WB, AMR-WB+) 및 하나의 IETF 코덱(OPUS)이 후속하고, 2개의 MPEG 코덱들(HE-AAC, HILN)에서 종료한다(ITU=International Telecommunication Union; 3GPP=3rd Generation Partnership Project; AMR=Adaptive Multi-Rate; WB=Wideband; IETF=Internet Engineering Task Force). 후속하여, 배경 잡음 레벨의 추적에 관한 종래 기술이 분석되고, 뒤이어 개요를 제공하는 요약이 후속한다.
먼저, G.718이 고려된다. G.718은 협대역이고 광역 음성 코덱이고, 이것은 DTX/CNG(DTX = Digital Theater Systems; CNG=Comfort Noise Generation)를 지원한다. 실시예들이 특히 저 지연 코드에 관한 것일 때, 저 지연 버전 모드가 본 명세서에서 더 구체적으로 기재될 것이다.
ACELP(층 1)(ACELP=Algebraic code Excited Linear Prediction)을 고려하여, ITU-T는 G.718[ITU08a, 섹션 7.11]에 대해 페이딩 속도를 제어하기 위해 선형 예측 도메인에서 적응형 페이드 아웃을 권고한다. 일반적으로, 은닉은 이러한 원리에 따른다:
G.718에 따라, 프레임 소거들(erasures)의 경우에, 은닉 전략은 배경 잡음의 추정된 파라미터들로의 신호 에너지 및 스펙트럼 엔벨로프(spectral envelope)의 수렴으로서 요약될 수 있다. 신호의 주기성은 0으로 수렴된다. 수렴의 속도는 마지막으로 정확히 수신된 프레임의 파라미터들과, 연속 소거된 프레임들의 개수에 의존하고, 감쇄 인자(α)에 의해 제어된다. 감쇄 인자(α)는 무성음(UNVOICED) 프레임들에 대해 LP 필터(LP=Linear Prediction)의 안정도(θ)에 추가로 의존한다. 일반적으로, 수렴은, 마지막으로 양호하게 수신된 프레임이 안정된 세그먼트에 있는 경우 느려지고, 프레임이 전이 세그먼트에 있는 경우 빨라진다.
감쇄 인자(α)는 음성 신호 클래스에 의존하고, 이러한 음성 신호 클래스는 [ITU08a, 섹션 6.8.1.3.1 및 7.11.1.1]에 기재된 신호 클래스에 의해 도출된다. 안정도 인자(θ)는 인접한 ISF(Immittance Spectral Frequency) 필터들 사이의 거리 측정에 기초하여 계산된다[ITU08a, 섹션 7.1.2.4.2].
표 1은 α의 계산 계획을 보여준다.
Figure pct00001
더욱이, G.718은 스펙트럼 엔벨로프를 변형하기 위해 페이딩 방법을 제공한다. 일반적인 생각은 마지막 ISF 파라미터들을 적응형 ISF 평균 벡터쪽으로 수렴하는 것이다. 처음에, 평균 ISF 벡터는 마지막의 3개의 알려진 ISF 벡터들로부터 계산된다. 그런 후에 평균 ISF 벡터는 오프라인으로 트레이닝된(trained) 장기간 ISF 벡터(상수 벡터임)로 다시 평균화된다[ITU08a, 섹션 7.11.1.2].
더욱이, G.718은 장기간 행위를 제어하여, 배경 잡음과의 상호 작용을 제어하는 페이딩 방법을 제공하며, 여기서 피치(pitch) 여기 에너지(이에 따라 여기 주기성)는 0으로 수렴하는 한편, 랜덤 여기 에너지는 CNG 여기 에너지로 수렴한다[ITU08a, 섹션 7.11.1.6]. 혁신(innovation) 이득 감쇄는 수학식 1로서 계산된다:
Figure pct00002
여기서 gs [1]는 다음 프레임의 시작에서의 혁신 이득이고, gs [0]은 현재 프레임의 시작에서의 혁신 이득이고, gn은 안락 잡음 생성 동안 사용된 여기의 이득이고, α는 감쇄 인자이다.
주기 여기 감쇄와 유사하게, 이득은 gs [0]에서 시작하는 샘플 간에 기초하여 프레임 전체에 선형으로 감쇄되고, 다음 프레임의 시작에서 gs [1]에 도달한다.
도 2는 G.718의 디코더 구조를 개설한다. 특히, 도 2는 PLC에 대한 높은 레벨의 G.718 디코더 구조를 도시하며, 이것은 고역 통과 필터를 특징으로 한다.
G.718의 전술한 접근법에 의해, 혁신 이득(gs)은 패킷 손실들의 긴 버스트들(bursts)에 대한 안락 잡음 생성(gn) 동안 사용된 이득으로 수렴한다. [ITU08a, 섹션 6.12.3]에 기재된 바와 같이, 안락 잡음 이득(gn)은 에너지(
Figure pct00003
)의 제곱근으로서 주어진다.
Figure pct00004
의 업데이트의 조건들은 구체적으로 기재되지 않는다. 기준 구현(부동 소수점 C-코드, stat_noise_uv_mod.c)에 후속하여,
Figure pct00005
는 다음과 같이 도출된다:
Figure pct00006
unvoiced_vad는 보이스 활동 검색을 나타내고, unv_cnt는 행에서 무성음 프레임들의 개수를 나타내고, 1p_gainc는 고정된 코드북의 저역 통과된 이득들을 나타내고, lp_ener는 저역 통과된 CNG 에너지 추정치(
Figure pct00007
)를 나타내고, 이것은 0으로 초기화된다.
더욱이, G.718은 무성음 여기의 신호 경로에 도입된 고역 통과 필터를 제공하고, 마지막으로 양호한 프레임의 신호가 무성음과 상이하게 분류되었으면, 도 2를 참조하고, 또한 [ITU08a, 섹션 7.11.1.6]을 참조하자. 이 필터는 나이키스트 주파수보다 약 5 dB 낮은 DC에서 주파수 응답을 갖는 낮은 셀프(shelf) 특징을 갖는다.
더욱이, G.718은 결합 해제된(decoupled) LTP 피드백 루프(LTP=Long-Term Prediction)를 제안한다: 정상 동작 동안 적응형 코드북에 대한 피드백 루프는 전체 여기에 기초하여 서브프레임-방식으로([ITU08a, 섹션 7.1.2.1.4]) 업데이트된다. 은닉 동안, 이러한 피드백 루프는 유성음 여기에만 기초하여 프레임-방식으로([ITU08a, 섹션들 7.11.1.4, 7.11.2.4, 7.11.1.6, 7.11.2.6; dec_GV_exc@dec_gen_voic.c 및 syn_bfi_post@syn_bfi_pre_post.c]) 업데이트되고, 적응형 코드북은 무작위로 선택된 혁신 여기에 의해 그 기원을 갖는 잡음으로 "오염(polluted)"되지 않는다.
G.718의 변환 코딩된 개선 층들(3-5)에 관해, 은닉 동안, 디코더는 MDCT 스펙트럼이 0으로 설정되는 것처럼, 정상 동작과 유사한 하이(high) 층에 관해 작용한다. 은닉 동안 특수한 페이드-아웃 행위는 적용되지 않는다.
G.718에서 CNG에 대해, CNG 합성은 다음의 순서로 이루어진다. 먼저, 안락 잡음 프레임의 파라미터들이 디코딩된다. 그런 후에, 안락 잡음 프레임은 합성된다. 그 후에 피치 버퍼가 재설정된다. 그런 후에, FER(Frame Error Recovery) 분류에 대한 합성이 저장된다. 그 후에, 스펙트럼 디엠퍼시스가 수행된다. 그런 후에, 저주파수 후치-필터링이 수행된다. 그런 후에, CNG 변수들이 업데이트된다.
은닉의 경우에, CNG 파라미터들이 비트스트림으로부터 디코딩되지 않는다는 점을 제외하고 정확히 동일한 것이 수행된다. 이것은, 파라미터들이 프레임 손실 동안 업데이트되지 않고, 마지막으로 양호한 SID(Silence Insertion Descriptor) 프레임으로부터의 디코딩된 파라미터들이 사용된다는 것을 의미한다.
이제, G.719가 고려된다. 사이렌(Siren) 22에 기초한 G.719는 전체-대역 오디오 코덱에 기초한 변환이다. ITU-T는 G.719에 대해 스펙트럼 도메인에서 프레임 반복을 갖는 페이드-아웃을 권고한다[ITU08b, 섹션 8.6]. G.719에 따라, 프레임 소거 은닉 메커니즘은 디코더에 병합된다. 프레임이 정확히 수신될 때, 재구성된 변환 계수들은 버퍼에 저장된다. 프레임이 손실되었다는 것 또는 프레임이 붕괴된다는 것이 디코더에게 통보되면, 가장 최근에 수신된 프레임에서 재구성된 변환 계수들은 인자 0.5로 점점 줄어들게 스케일링(scaled)되고, 그런 후에 현재 프레임에 대한 재구성된 변환 계수들로서 사용된다. 디코더는 재구성된 변환 계수들을 시간 도메인으로 변환하고 윈도윙-중첩-추가(windowing-overlap-add) 동작을 수행함으로써 진행된다.
다음에서, G.722가 기재된다. G.722는 최대 64 kbit/s의 비트율 내에서 서브밴드 적응형 차동 펄스 코드 변조(SB-ADPCM)를 이용하는 70 내지 7000 Hz 코딩 시스템이다. 신호는 QMF 분석(QMF = Quadrature Mirror Filter)을 이용하여 높은 및 낮은 서브밴드로 분할된다. 결과적인 2개의 밴드들은 ADPCM-코딩된다(ADPCM = Adaptive Differential Pulse Code Modulation).
G.722에 대해, 패킷 손실 은닉을 위한 높은-복잡도의 알고리즘은 첨부 III[ITU06a]에서 규정되고, 패킷 손실 은닉을 위한 낮은-복잡도의 알고리즘은 첨부 IV[ITU07]에서 규정된다. G.722-첨부 III([ITU06a, 섹션 III.5])는 점진적으로 수행된 뮤팅(muting)을 제안하며, 이것은 프레임-손실의 20ms 이후에 시작하고, 프레임-손실의 60ms 이후에 완료된다. 더욱이, G.722-첨부 IV는 "샘플마다 계산되고 적응된 이득 인자를 각 샘플에" 적용하는 페이드-아웃 기술을 제안한다[ITU07, 섹션 IV.6.1.2.7].
G.722에서, 뮤팅 프로세스는 QMF 합성 바로 직전에 그리고 PLC 모듈의 마지막 단계로서 서브밴드 도메인에서 발생한다. 뮤팅 인자의 계산은 또한 PLC 모듈의 부분인 신호 분류기로부터의 클래스 정보를 이용하여 수행된다. 구별은 클래스들(TRANSIENT, UV_TRANSITION)과 다른 것들 사이에서 이루어진다. 더욱이, 구별은 10-ms 프레임들의 단일 손실들과 다른 경우들(10-ms 프레임들의 다중 손실들 및 20-ms 프레임들의 단일/다중 손실들) 사이에서 이루어진다.
이것은 도 3에 의해 예시된다. 특히, 도 3은, G.722의 페이드-아웃 인자가 클래스 정보에 의존하고 80개의 샘플들이 10ms와 동등한 시나리오를 도시한다.
G.722에 따라, PLC 모듈은 손실 프레임에 대한 신호, 및 다음 양호한 프레임으로 교차-페이딩되도록 가정되는 몇몇 추가 신호(10ms)를 생성한다. 추가 신호에 대한 뮤팅은 동일한 규칙들에 따른다. G.722의 높은 밴드의 은닉에서, 교차-페이딩이 발생하지 않는다.
다음에서, G.722.1이 고려된다. 사이렌 7에 기초한 G.722.1은 초광역 대역 연장 모드를 갖는 광역 오디오 코덱에 기초한 변환이고, 이것은 G.722.1C로 언급된다. G.722.1C 자체는 사이렌 14에 기초한다. ITU-T는 G.722.1에 대해 후속 뮤팅을 갖는 프레임-반복을 권고한다[ITU05, 섹션 4.7]. 이러한 권고에 정의되지 않은 외부 신호 발신(signaling) 메커니즘에 의해, 프레임이 손실되었거나 붕괴되었다는 것을 디코더가 통보받으면, 이전 프레임의 디코딩된 MLT(Modulated Lapped Transform) 계수들을 반복한다. 이들 이전 프레임의 디코딩된 MLT 계수들을 시간 도메인으로 변환하고 이전 및 다음 프레임의 디코딩된 정보로 중첩 및 추가 동작을 수행함으로써 진행된다. 이전 프레임이 또한 손실되었거나 붕괴되었으면, 디코더는 모든 현재 프레임들의 MLT 계수들을 0으로 설정한다.
이제, G.729가 고려된다. G.729는 10 ms 지속기간의 패킷들에서 디지털 보이스를 압축하는 보이스를 위한 오디오 데이터 압축 알고리즘이다. 이것은 코드-여기된 선형 예측 음성 코딩(CS-ACELP)[ITU12]을 이용하여 8 kbit/s에서 음성의 코딩으로서 공식적으로 기재된다.
[CPK08]에서 개설된 바와 같이, G.729는 LP 도메인에서 페이드-아웃을 권고한다. G.729 표준에 이용된 PLC 알고리즘은 이전에-수신된 음성 정보에 기초하여 현재 프레임에 대한 음성 신호를 재구성한다. 즉, PLC 알고리즘은 잃어버린 여기를 이전에 수신된 프레임의 등가 특성으로 대체하고, 여기 에너지가 마지막으로 점차 감쇠하더라도, 적응형 및 고정된 코드북들의 이득들은 상수 인자에 의해 감쇄된다.
감쇄된 고정된-코드북 이득은 gc (m) = 0.98·gc (m-1)에 의해 주어지고,
m은 서브프레임 인덱스이다.
적응성-코드북 이득은 이전의 적응성-코드북 이득의 감쇄된 버전에 기초한다:
gp (m) = 0.9·gp (m-1), gp (m) < 0.9에 의해 한계가 정해짐
남 인 박(Nam in Park) 등은 G.729에 대해 선형 회귀에 의한 예측을 이용하는 신호 진폭 제어를 제안한다[CPK08, PJK+11]. 이것은 버스트 패킷 손실로 다루어지고, 핵심 기술로서 선형 회귀를 이용한다. 선형 회귀는 수학식 2로서 선형 모델에 기초한다
Figure pct00008
여기서 gi'는 새롭게 예측된 현재 진폭이고, a 및 b는 1차 선형 함수에 대한 계수들이고, i는 프레임의 인덱스이다. 최적화된 계수들(a* 및 b*)을 찾기 위해, 제곱 예측 에러의 합산은 최소화된다:
Figure pct00009
ε는 제곱근 에러이고, gj는 원점을 지나는 j번째 진폭이다. 이러한 에러를 최소화하기 위해, 간단히 a 및 b에 관한 미분이 0으로 설정된다. 최적화된 파라미터들(a* 및 b*)을 이용함으로써, 각 gi *의 추정치는 수학식 4로 표시된다
Figure pct00010
도 4는 진폭 예측, 특히 선형 회귀를 이용함으로써 진폭(gi *)의 예측을 도시한다.
손실된 패킷(i)의 진폭(Ai')을 얻기 위해, 비율(σi)
Figure pct00011
는 스케일 인자(scale factor)(Si)와 곱해진다:
Figure pct00012
여기서 스케일 인자(Si)는 연속 은닉된 프레임들{l(i)}의 개수에 의존한다:
Figure pct00013
[PKJ+11]에서, 약간 상이한 스케일링이 제안된다.
G.729에 따라, 그 후에, Ai'는 프레임 경계들에서 이산 감쇄를 방지하도록 평활화될 것이다. 마지막의 평활화된 진폭{Ai(n)}은 여기와 곱해지고, 이것은 이전의 PLC 성분들로부터 얻어진다.
다음에서, G.729.1이 고려된다. G.729.1은 G.729-기반의 내장된 변수 비트율 코더이다: G.729와 상호 동작가능한 8-32 kbit/s 스케일가능 광역 코더 비트스트림[ITU06b].
G.729.1에 따라, G.718(위를 참조)에서와 같이, 적응형 페이드 아웃이 제안되며, 이것은 신호 특징들의 안정도에 의존한다([ITU06b, 섹션 7.6.1]). 은닉 동안, 신호는 일반적으로 감쇄 인자(a)에 기초하여 감쇄되고, 이러한 감쇄 인자(α)는 마지막으로 양호하게 수신된 프레임 클래스의 파라미터들 및 연속 소거된 프레임들의 개수에 의존한다. 감쇄 인자(α)는 무성음 프레임들에 대해 LP 필터의 안정도에 추가로 의존한다. 일반적으로, 감쇄는 마지막으로 양호하게 수신된 프레임이 안정된 세그먼트인 경우 느려지고, 프레임이 전이 세그먼트인 경우 빨라진다.
더욱이, 감쇄 인자(a)는 서브프레임당 평균 피치 이득(
Figure pct00014
)에 의존한다([ITU06b, eq. 163. 164]):
Figure pct00015
여기서 gp (i)는 서브프레임(i)에서의 피치 이득이다.
표 2는 α의 계산 계획을 도시하며, 여기서
Figure pct00016
은닉 프로세스 동안, α는 다음의 은닉 툴들(tools)에 사용된다:
Figure pct00017
G.729.1에 따라, 성문 펄스 재동기화에 관해, 이전 프레임의 여기의 마지막 펄스가 주기 부분의 구성에 사용될 때, 그 이득은 은닉된 프레임의 시작에서 거의 정확하고, 1로 설정될 수 있다. 이득은 이 후 프레임의 마지막에서 α의 값을 달성하기 위해 샘플간에 기초하여 프레임 전체에 선형으로 감쇄된다. 유성음 세그먼트들의 에너지 전개(energy evolution)는 마지막으로 양호한 프레임의 각 서브프레임의 피치 여기 이득 값들을 이용함으로써 외삽된다. 일반적으로, 이들 이득들이 1보다 크면, 신호 에너지는 증가하고, 이들 이득들이 1보다 작으면, 에너지는 감소한다. α는 이에 따라 전술한 바와 같이
Figure pct00018
로 설정되고, [ITU06b, eq. 163, 164]를 참조하자. β의 값은 강한 에너지 증가 및 감소를 피하기 위해 0.98과 0.85 사이에서 클리핑(clipped)되고, [ITU06b, 섹션 7.6.4]를 참조하자.
G.729.1에 따라, 여기의 랜덤 부분의 구성에 관해, 소거된 블록의 시작에서, 혁신 이득(gs)은 마지막으로 양호한 프레임의 각 서브프레임의 혁신 여기 이득들을 이용함으로써 초기화된다:
Figure pct00019
여기서 g(0), g(1), g(2) 및 g(3)은 마지막으로 정확히 수신된 프레임의 4개의 서브프레임들의 고정된 코드북, 또는 혁신, 이득들이다. 혁신 이득 감쇄는 다음과 같이 이루어진다:
Figure pct00020
여기서, gs (1)은 다음 프레임의 시작에서의 혁신 이득이고, gs (0)은 현재 프레임의 시작에서의 혁신 이득이고, α는 위의 표 2에 정의된 바와 같다. 주기 여기 감쇄와 유사하게, 이득은 이에 따라 gs (0)에서 시작하고 gs (t)의 값으로 가는 샘플간에 기초하여 프레임 전체에서 선형으로 감쇄되고, 이것은 다음 프레임의 시작에서 달성된다.
G.279.1에 따라, 마지막으로 양호한 프레임이 무성음이면, 혁신 여기만이 사용되고, 0.8의 인자만큼 추가로 감쇄된다. 이 경우에, 과거 여기 버퍼는, 여기의 주기 부분이 이용가능하지 않기 때문에 혁신 여기로 업데이트되고, [ITU06b, 섹션 7.6.5]를 참조하자.
다음에서, AMR이 고려된다. 3GPP AMR[3GP12b]는 ACELP 알고리즘을 이용하는 음성 코덱이다. AMR은 8000 샘플들/s의 샘플링율 및 4.75와 12.2 kbit/s 사이의 비트율로 음성을 코딩할 수 있고, 신호 발신 무음(silence) 설명자 프레임들(DTX/CNG)을 지원한다.
AMR에서, 에러 은닉([3GP12a]를 참조) 동안, 에러 유발(error prone)(비트 에러들)이 있는 프레임들과 완전히 손실되는(데이터가 전혀 없음) 프레임들 사이가 구별된다.
ACELP 은닉에 대해, AMR은 채널의 품질을 추정하는 상태 기계를 도입한다: 상태 카운터의 값이 더 커질수록, 채널 품질은 더 악화된다. 시스템은 상태 0에서 시작한다. 불량 프레임이 검출될 때마다, 상태 카운터는 1만큼 증분되고, 6에 도달할 때 포화된다. 양호한 음성 프레임이 검출될 때마다, 상태 카운터는, 상태가 6이어서 상태 카운터가 5로 설정된 경우를 제외하고, 0으로 재설정된다. 상태 기계의 제어 흐름은 다음의 C 코드(BFI는 불량 프레임 표시자이고, 상태는 상태 변수이다)에 의해 기재될 수 있다:
Figure pct00021
이러한 상태 기계 외에도, AMR에서, 현재 및 이전 프레임들로부터의 불량 프레임 플래그들이 체크된다(prevBFI).
3가지 상이한 조합들이 가능하다:
3가지 조합들 중 첫 번째 조합은 BFI=0, prevBFI=0, State=0이다: 수신된 또는 이전에 수신된 음성 프레임에서는 에러가 검출되지 않는다. 수신된 음성 파라미터들은 음성 합성에서 정상적인 방식으로 사용된다. 음성 파라미터들의 현재 프레임은 저장된다.
3가지 조합들 중 두 번째 조합은 BFI=0, prevBFI=1, State=0 또는 5이다: 수신된 음성 프레임에서는 에러가 검출되지 않고, 이전에 수신된 음성 프레임은 불량이다. LTP 이득 및 고정된 코드북 이득은 마지막으로 수신된 양호한 서브프레임에 사용된 값들 아래에 제한된다:
Figure pct00022
여기서, gp = 현재 디코딩된 LTP 이득이고, gp(-1) = 마지막으로 양호한 서브프레임(BFI=0)에 사용된 LTP 이득이고,
Figure pct00023
여기서, gc = 현재 디코딩된 고정된 코드북 이득이고, gc(-1) =마지막으로 양호한 서브프레임(BFI=0)에 사용된 고정된 코드북 이득이다.
수신된 음성 파라미터들의 나머지는 음성 합성에서 통상적으로 사용된다. 음성 파라미터들의 현재 프레임은 저장된다.
3가지 조합들 중 세 번째 조합은 BFI=1, prevBFI= 0 또는 1, State = 1...6:이다. 수신된 음성 프레임에서는 에러가 검출되고, 교체 및 뮤팅 절차가 시작된다. LTP 이득 및 고정된 코드북 이득은 이전 서브프레임들로부터 감쇄된 값들로 교체된다:
Figure pct00024
여기서, gp는 현재 디코딩된 LTP 이득을 나타내고, gp(-1),...,gp(-n)은 마지막 n개의 서브프레임들에 사용된 LTP 이득들을 나타내고, median5()는 5-포인트 중간값 연산(5-point median operation)을 나타내고,
P(state) = 감쇄 인자,
여기서 (P(1)=0.98, P(2)=0.98, P(3)=0.8, P(4)=0.3, P(5)=0.2, P(6)=0.2)이고, state=상태 번호이고,
Figure pct00025
여기서 gc는 현재 디코딩된 고정된 코드북 이득을 나타내고, gc(-1), ... , gc(-n)은 마지막 n개의 서브프레임들에 사용된 고정된 코드북 이득들을 나타내고, median5()는 5-포인트 중간값 연산을 나타내고, C(state)=감쇄 인자이고, 여기서 (C(1)=0.98, C(2)=0.98, C(3)=0.98, C(4)=0.98, C(5)=0.98, C(6)=0.7)이고, state=상태 번호이다.
AMR에서, LTP-래그 값들(LTP=Long-Term Prediction)은 이전 프레임의 제 4 서브프레임으로부터 과거 값으로 교체되거나(12.2 모드), 마지막으로 정확히 수신된 값에 기초하여 약간 변형된 값들로 교체된다(모든 다른 모드들).
AMR에 따라, 잘못된 프레임으로부터의 수신된 고정된 코드북 혁신 펄스들은, 붕괴된 데이터가 수신될 때 수신된 상태에서 사용된다. 어떠한 데이터도 수신되지 않은 경우에, 랜덤 고정된 코드북 인덱스들이 사용되어야 한다.
AMR에서 CNG에 관해, [3GP12a, 섹션 6.4]에 따라, 각각의 제 1 손실된 SID 프레임은 더 일찍 수신된 유효 SID 프레임들로부터의 SID 정보를 이용함으로써 교체되고, 유효 SID 프레임들에 대한 절차가 적용된다. 후속 손실된 SID 프레임들에 대해, 감쇄 기술은 출력 레벨을 점차 감소시킬 안락 잡음에 적용된다. 그러므로, 마지막 SID 업데이트가 이전에 50을 초과하는 프레임들(=1s)이었는 지가 체크되고, 만약 그렇다면, 출력은 뮤팅될 것이다{프레임당 -6/8 dB만큼의 레벨 감쇄 [3GP12d, dtx_dec{ }@sp_dec.c], 이것은 초당 37.5 dB를 산출한다}. CNG에 적용된 페이드-아웃이 LP 도메인에서 수행되는 것이 주지된다.
다음에서, AMR-WB가 고려된다. 적응형 멀티레이트 - WB [ITU03, 3GP09c]는 AMR에 기초한 음성 코덱, ACELP이다(섹션 1.8을 참조). 이것은 파라미터성 대역폭 확장을 이용하고, 또한 DTX/CNG를 지원한다. 표준 [3GP12g]의 설명에서, 사소한 편차들을 갖는 AMR [3GP12a]와 동일한 은닉 예의 해법들이 주어진다. 그러므로, AMR에 대한 차이들만이 본 명세서에 기재된다. 표준 설명에 대해, 위의 설명을 참조하자.
ACELP에 관해, AMR-WB에서, ACELP 페이드-아웃은 피치 이득(gp)(위의 AMR에 대해 LTP 이득으로 언급됨)을 변형함으로써 그리고 코드 이득(gc)을 변형함으로써 기준 소스 코드 [3GP12c]에 기초하여 수행된다.
손실된 프레임의 경우에, 제 1 서브프레임에 대한 피치 이득(gp)은 0.95와 0.5 사이에 제한된다는 점을 제외하고 마지막으로 양호한 프레임에서와 동일하다. 제 2, 제 3 및 후속하는 서브프레임들에 대해, 피치 이득(gp)은 0.95의 인자만큼 감소되고, 다시 제한된다.
AMR-WB는, 은닉된 프레임(gc)에서, 마지막 gc에 기초한다는 것을 제안한다:
Figure pct00026
Figure pct00027
Figure pct00028
Figure pct00029
LTP-래그들을 은닉하기 위해, AMR-WB에서, 5개의 마지막으로 양호한 LTP-래그들 및 LTP-이득들의 이력은 프레임 손실의 경우에 업데이트하기 위한 최상의 방법을 찾는데 사용된다. 프레임이 비트 에러들을 가지고 수신되는 경우에, 수신된 LTP 래그가 사용가능하거나 사용가능하지 않는 지의 여부에 상관없이 수행된다[3GP12g].
CNG에 관해, AMR-WB에서, 마지막으로 정확히 수신된 프레임이 SID 프레임이었고 프레임이 손실된 것으로 분류되면, 마지막 유효 SID 프레임 정보로 교체될 수 있고, 유효 SID 프레임들에 대한 절차가 적용되어야 한다.
후속 손실된 SID 프레임들에 대해, AMR-WB는 출력 레벨을 점차 감소시킬 안락 잡음에 감쇄 기술을 적용하는 것을 제안한다. 그러므로, 마지막 SID 업데이트가 이전에 50을 초과하는 프레임들(=1s)이었는 지가 체크되고, 만약 그렇다면, 출력은 뮤팅될 것이다{프레임당 -3/8 dB만큼의 레벨 감쇄 [3GP12f, dtx_dec{ }@sp_dtx.c], 이것은 초당 18.75 dB를 산출한다}. CNG에 적용된 페이드-아웃이 LP 도메인에서 수행되는 것이 주지된다.
이제, AMR-WB+가 고려된다. 적응형 멀티레이트 - WB+ [3GP09a]는 핵심 코덱들로서 ACELP 및 TCX(TCX=Transform Coded Excitation)을 이용하여 스위칭된 코덱이다. 이것은 파라미터성 대역폭 확장을 이용하고, 또한 DTX/CNG를 지원한다.
AMR-WB+에서, 모드 외삽 논리는 왜곡된 서브프레임 내에서 손실된 프레임들의 모드들을 외삽하도록 적용된다. 이러한 모드 외삽은 모드 표시자들의 정의에서 여분이 존재한다는 점에 기초한다. AMR-WB+에 의해 제안된 결정 논리([3GP09a, 도 18]에 주어짐)는 다음과 같다:
- 벡터 모드, (m-1, m0, m1, m2, m3)가 정의되고, 여기서 m-1은 이전 슈퍼프레임의 마지막 프레임의 모드를 나타내고, m0, m1, m2, m3은 현재 슈퍼프레임(비트스트림으로부터 디코딩된)에서의 프레임들의 모드들을 나타내고, 여기서 mk = -1, 0, 1, 2 또는 3(-1: 손실, 0: ACELP, 1: TCX20, 2: TXC40, 3: TCX80)이고, 손실된 프레임들의 개수(nloss)는 0 내지 4이다.
- m-1 = 3이고, 프레임들 0 내지 3의 모드 표시자들 중 2개가 3이면, 모든 표시자들은 3으로 설정될 것인데, 이는 하나의 TCX80 프레임이 슈퍼프레임 내에서 표시되었다는 것이 확실하기 때문이다.
- 프레임들 0 내지 3의 하나의 표시자만이 3{및 손실된 프레임들의 개수(nloss)가 3이면}이면, 모드는 (1,1,1,1)로 설정될 것인데, 이는 TCX80 목표 스펙트럼의 3/4가 손실되고 범용 TCX 이득이 손실될 가능성이 매우 있기 때문이다.
- 모드가 (x,2,-1,x,x) 또는 (x,-1,2,x,x)를 나타내면, (x,2,2,x,x)로 외삽될 것이고, 이것은 TCX40 프레임을 나타낸다. 모드가 (x,x,x,2,-1) 또는 (x,x,-1,2)이면, (x,x,x,2,2)로 외삽될 것이고, 이것은 또한 TCX40 프레임을 나타낸다. (x,[0,1],2,2,[0,1])이 무효 구성들이라는 것이 주지되어야 한다.
- 그 후에, 손실된(mode = -1) 각 프레임에 대해, 모드는 이전 프레임이 ACELP인 경우 ACELP(mode=0)으로 설정되고, 모드는 모든 다른 경우들에 대해 TCX20(mode=1)로 설정된다.
ACELP에 관해, AMR-WB+에 따라, 손실된 프레임들 모드가 모드 외삽 이후에 mk=0을 초래하면, [3GP12g]에서와 동일한 접근법은 이러한 프레임에 대해 적용된다(위를 참조).
AMR-WB+에서, 손실된 프레임들의 개수 및 외삽된 모드에 따라, 다음의 TCX 관련 은닉 접근법들이 구별된다(TCX=Transform Coded Excitation):
- 전체 프레임이 손실되면, ACELP형 은닉이 적용된다: 마지막 여기가 반복되고, 은닉된 ISF 계수들(적응성 평균쪽으로 약간 시프트함)은 시간 도메인 신호를 합성하는데 사용된다. 추가적으로, 프레임당 0.7의 페이드-아웃 인자(20ms)[3GP09b, dec_tcx.c]는 LPC(Linear Predictive Coding) 합성 바로 직전에 선형 예측 도메인에서 곱해진다.
- 마지막 모드가 TCX80이고 (부분적으로 손실된) 슈퍼프레임의 외삽된 모드가 TCX80(nloss=[1,2], mode=(3,3,3,3,3))이면, 은닉은 위상 및 진폭 외삽을 이용하여, 마지막으로 정확히 수신된 프레임을 고려하여, FFT 도메인에서 수행된다. 위상 정보의 외삽 접근법은 본 명세서에서 어떠한 관심도 없고(페이딩 전략과 관련 없음), 그러므로 기재되지 않는다. 추가 세부사항들에 대해, [3GP09a, 섹션 6.5.1.2.4]를 참조하자. AMR-WB+의 진폭 변형에 대해, TCX 은닉을 위해 수행된 접근법은 다음의 단계들로 구성된다[3GP09a, 섹션 6.5.1.2.3]:
- 이전 프레임 크기 스펙트럼이 계산된다:
Figure pct00030
- 현재 프레임 크기 스펙트럼이 계산된다:
Figure pct00031
- 이전 및 현재 프레임 사이의 비-손실 스펙트럼 계수들의 에너지의 이득 차이가 계산된다:
Figure pct00032
- 잃어버린 스펙트럼 계수들의 진폭은 다음을 사용하여 외삽된다:
Figure pct00033
- mk = [2,3]을 갖는 손실된 프레임의 모든 다른 경우에서, TCX 목표{디코딩된 스펙트럼 플러스 잡음 충진(fill-in)의 역 FFT(비트스트림으로부터 디코딩된 잡음 레벨을 이용하여)}는 모든 이용가능한 정보(범용 TCX 이득을 포함)를 이용하여 합성된다. 이 경우에 페이드-아웃은 적용되지 않는다.
AMR-WB+에서 CNG에 관해, AMR-WB와 동일한 접근법이 사용된다(위를 참조).
다음에서, OPUS가 고려된다. OPUS [IET12]는 2가지 코덱들로부터 기술을 병합한다: 음성-지향 SILK(스카이프 코덱으로서 알려짐) 및 저-레이턴시(low-latency) CELT(CELT= Constrained-Energy Lapped Transform). Opus는 높은 및 낮은 비트율들 사이에서 끊김 없이 조정될 수 있고, 내부적으로, 낮은 비트율(SILK)에서의 선형 예측 코덱과 높은 비트율(CELT)에서의 변환 코덱뿐 아니라 짧은 중첩을 위한 하이브리드 사이를 스위칭한다.
SILK 오디오 데이터 압축 및 압축 해제에 관해, OPUS에서, SILK 디코더 루틴에서의 은닉 동안 감쇄되는 여러 개의 파라미터들이 존재한다. 연속 손실된 프레임들의 개수에 따라, LTP 이득 파라미터는 프레임당 0.99, 0.95 또는 0.90과 모든 LPC 계수들을 곱함으로써 감쇄되고, 여기서 여기는 이전 프레임의 여기로부터 마지막 피치 사이클을 이용하여 구축된다. 피치 래그 파라미터는 연속 손실들 동안 매우 느리게 증가한다. 단일 손실들에 대해, 마지막 프레임에 비해 일정하게 유지된다. 더욱이, 여기 이득 파라미터는 프레임당
Figure pct00034
으로 지수적으로 감쇄되어, 여기 이득 파라미터는 제 1 여기 이득 파라미터에 대해 0.99이고, 여기 이득 파라미터는 제 2 여기 이득 파라미터에 대해 0.992이고, 이후에도 이와 같이 이루어진다(and so on). 여기는 가변 오버플로우(overflow)에 의해 백색 잡음을 생성하는 난수(random number) 생성기를 이용하여 생성된다. 더욱이, LPC 계수들은 계수들의 마지막으로 정확히 수신된 세트에 기초하여 외삽/평균화된다. 감쇄된 여기 벡터를 생성한 후에, 은닉된 LPC 계수들은 시간 도메인 출력 신호를 합성하기 위해 OPUS에 사용된다.
이제, OPUS의 정황에서, CELT가 고려된다. CELT는 변환 기반의 코덱이다. CELT의 은닉은 피치 기반의 PLC 접근법을 특징으로 하는데, 이러한 피치 기반의 PLC 접근법은 최대 5개의 연속적으로 손실된 프레임들에 대해 적용된다. 프레임 6에서 시작하여, 잡음형 은닉 접근법이 적용되고, 이것은 배경 잡음을 생성하고, 이러한 특징은 이전 배경 잡음과 같은 사운드를 받기로 되어 있다.
도 5는 CELT의 버스트 손실 행위를 도시한다. 특히, 도 5는 CEL 은닉된 음성 세그먼트의 스펙트로그램(x-축: 시간; y-축: 주파수)을 도시한다. 옅은 회색 박스는 처음 5개의 연속적으로 손실된 프레임들을 나타내고, 여기서 피치 기반의 PLC 접근법이 적용된다. 이 외에, 잡음형 은닉이 도시된다. 스위칭이 즉시 수행되는 것이 주지되어야 하고, 매끄럽게 전이하지 않는다.
피치 기반의 은닉에 관해, OPUS에서, 피치 기반의 은닉은 자동 상관(autocorrelation)에 의해 디코딩된 신호에서 주기성을 발견하는 것과, 피치 오프셋(피치 래그)을 이용하여 윈도우윙된 파형(LPC 분석 및 합성을 이용하여 여기 도메인에서)을 반복하는 것으로 구성된다. 윈도우윙된 파형은 이전 프레임 및 다음 프레임과의 시간-도메인 얼라이싱(aliasing) 취소를 확보하는 방식으로 중첩된다[IET12]. 추가적으로, 페이드-아웃 인자는 다음의 코드에 의해 도출되고 적용된다:
opus_val32 E1=1, E2=1;
int period;
if (pitch_index <= MAX_PERIOD/2) {
period = pitch_index;
}
else {
period = MAX_PERIOD/2;
}
for (i=0;i<period;i++)
{
E1 += exc[MAX_PERIOD- period+i] * exc[MAX_PERIOD- period+i];
E2 += exc[MAX_PERIOD-2*period+i] * exc[MAX_PERIOD-2*period+i];
}
if (E1 > E2) {
E1 = E2;
}
decay = sqrt(E1/E2));
attenuation = decay;
이 코드에서, exc는 손실 이전에 최대 MAX_PERIOD 샘플들까지 여기 신호를 포함한다.
여기 신호는 나중에 감쇄와 곱해지고, 그 후에 LPC 합성을 통해 합성되고 출력된다.
시간 도메인 접근법에 대한 페이딩 알고리즘은 이와 같이 요약될 수 있다:
- 손실 이전에 마지막 피치 사이클의 피치 동기화 에너지를 발견.
- 손실 이전에 제 2 마지막 피치 사이클의 피치 동기화 에너지를 발견.
- 에너지가 증가하면, 일정하게 유지하기 위해 에너지를 제한: 감쇄 = 1
- 에너지가 감소하면, 은닉 동안 동일한 감쇄를 계속
잡음형 은닉에 관해, OPUS에 따라, 제 6 및 후속하는 연속적인 손실된 프레임들에 대해, MDCT 도메인에서의 잡음 교체 접근법은 안락 배경 잡음을 시뮬레이팅하기 위해 수행된다.
배경 잡음 레벨 및 형태의 추적에 관해, OPUS에서, 배경 잡음 추정은 다음과 같이 수행된다: MDCT 분석 이후에, MDCT 대역 에너지들의 제곱근은 주파수 대역마다 계산되고, 여기서 MDCT 빈들(bins)의 그룹화는 [IET12, 표 55]에 따라 바크 스케일(bark scale)에 뒤따른다. 그런 후에 에너지들의 제곱근은 수학식 18에 의해 log2 도메인으로 변환된다:
Figure pct00035
여기서 e는 오일러의 수이고, bandE는 MDCT 대역의 제곱근이고, eMeans는 상수들의 벡터(결과적인 0의 평균을 얻는데 필요함, 이것은 개선된 코딩 이득을 초래한다)이다.
OPUS에서, 배경 잡음은 이와 같은 디코더 측 상에서 로깅(logged)된다[IET12, amp2Log2 및 log2Amp@quant_bands.c]:
Figure pct00036
추적된 최소 에너지는 기본적으로 현재 프레임의 대역의 에너지의 제곱근에 의해 결정되지만, 하나의 프레임으로부터 다음 프레임까지의 증가는 0.05 dB만큼 제한된다.
배경 잡음 레벨 및 형태의 적용에 관해, OPUS에 따라, 잡음형 PLC가 적용되면, 마지막의 양호한 프레임에서 도출된 backgroundLogE가 사용되고, 선형 도메인으로 다시 변환된다:
Figure pct00037
여기서 e는 오일러의 수이고, eMeans는 "선형-로그" 변환에 대한 것과 동일한 상수들의 벡터이다.
현재 은닉 절차는 난수 생성기에 의해 발생된 백색 잡음으로 MDCT 프레임을 채우고, 대역 방식(wise)을 bandE의 에너지에 매칭하는 방식으로 이러한 백색 잡음을 스케일링하는 것이다. 순차적으로, 역 MDCT가 적용되고, 이것은 시간 도메인 신호를 초래한다. 중첩 추가 및 디엠퍼시스(정상적인 디코딩에서와 같이) 이후에, 풋 아웃(put out)된다.
다음에서, MPEG-4 HE-AAC가 고려된다(MPEG=Moving Picture Experts Group; HE-AAC=High Efficiency Advanced Audio Coding). 고효율 진보된 오디오 코딩은 변환 기반의 오디오 코덱(AAC)으로 구성되고, 이것은 파라미터성 대역폭 확장(SBR)에 의해 보충된다.
AAC(AAC=Advanced Audio Coding)에 관해, DAB 협회는 DAB+에서의 AAC에 대해 주파수 도메인에서의 0으로의 페이드-아웃을 규정한다[EBU10, 섹션 A1.2](DAB=Digital Audio Broadcasting). 페이드-아웃 행위, 예를 들어, 감쇄 램프는 사용자에 의해 고정되거나 조정가능할 수 있다. 마지막 AU(AU=Access Unit)로부터의 스펙트럼 계수들은 페이드-아웃 특징들에 대응하는 인자에 의해 감쇄되고, 그런 후에 주파수-시간 매핑으로 전달된다. 감쇄 램프에 따라, 은닉은 연속적인 무효 AU들의 개수 이후에 뮤팅으로 스위칭하고, 이것은 완전한 스펙트럼이 0으로 설정될 것이라는 것을 의미한다.
DRM(DRM=Digital Rightzs Management) 협회는 DRM에서의 AAC에 대해 주파수 도메인에서의 페이드-아웃을 규정한다[EBU12, 섹션 5.3.3]. 은닉은 최종 주파수-시간 변환 바로 직전에 스펙트럼 데이터 상에서 작용한다. 다중 프레임들이 붕괴되면, 은닉은 먼저 마지막 유효 프레임으로부터 약간 변형된 스펙트럼 값들에 기초하여 페이드 아웃을 구현한다. 더욱이, DAB+와 유사하게, 페이드-아웃 행위, 예를 들어 감쇄 램프는 사용자에 의해 고정되거나 조정가능할 수 있다. 마지막 프레임으로부터의 스펙트럼 계수들은 페이드-아웃 특징들에 대응하는 인자에 의해 감쇄되고, 그런 후에 주파수-시간 매핑에 전달된다. 감쇄 램프에 따라, 은닉은 연속적인 무효 프레임들의 개수 이후에 뮤팅으로 스위칭하고, 이것은 완전한 스펙트럼이 0으로 설정될 것이라는 것을 의미한다.
3GPP는 개선된 aacPlus에서의 AAC에 대해 DRM과 유사한 주파수 도메인에서의 페이드-아웃을 소개한다[3GP12e, 섹션 5.1]. 은닉은 최종 주파수-시간 변환 바로 직전에 스펙트럼 데이터 상에서 작용한다. 다중 프레임들이 붕괴되면, 은닉은 마지막 양호한 프레임으로부터 약간 변형된 스펙트럼 값들에 기초하여 페이드 아웃을 구현한다. 완전한 페이딩 아웃은 5개의 프레임들을 취한다. 마지막 양호한 프레임으로부터의 스펙트럼 계수들은 복제되고, 마지막 양호한 프레임 이래로 프레임 카운터로서 nFadeOutFrame을 갖는 fadeOutFac = 2-( nFadeOutFrame / 2)의 인자에 의해 감쇄된다. 페이딩 아웃의 4개의 프레임들 이후에, 은닉은 뮤팅으로 스위칭하고, 이것은 완전한 스펙트럼이 0으로 설정될 것이라는 것을 의미한다.
라우버(Lauber) 및 스페르슈나이더(Sperschneider)는 에너지 외삽에 기초하여 MDCT 스펙트럼의 프레임-방식의 페이드-아웃을 소개한다[LS01, 섹션 4.4]. 이전 스펙트럼의 에너지 형태들은 추정된 스펙트럼의 형태를 외삽하는데 사용될 수 있다. 에너지 외삽은 일종의 후치 은닉으로서 은닉 기술들과 독립적으로 수행될 수 있다.
AAC에 관해, 에너지 계산은 인간 청각 시스템의 중요한 대역들에 가깝게 하기 위해 스케일 인자 대역 기반으로 수행된다. 개별적인 에너지 값들은 부피를 매끄럽게 감소하기 위해, 예를 들어 신호를 페이드 아웃하기 위해 프레임간에 기초하여 감소된다. 이것은, 추정된 값들이 현재 신호를 나타낼 확률이 시간이 지남에 따라 급격히 감소하기 때문에 필요하다.
공급될 스펙트럼의 생성을 위해, 프레임 반복 또는 잡음 교체를 제안한다[LS01, 섹션들 3.2 및 3.3].
쿼켄부쉬(Quackenbusch) 및 드리센(Driesen)은 ACC에 대해 0으로의 지수적 프레임-방식의 페이드-아웃을 제안한다[QD03]. 시간/주파수 계수들의 인접 세트의 반복이 제안되며, 여기서 각 반복은 지수적으로 증가하는 감쇄를 가져, 연장된 정지(outages)의 경우에 뮤팅하기 위해 점차 페이딩한다.
MPEG-4 HE-AAC에서의 SBR(SBR=Spectral Band Replication)에 관해, 3GPP는 개선된 aacPlus에서의 SBR에 대해 디코딩된 엔벨로프 데이터를 버퍼링하는 것과, 프레임 손실의 경우에, 전송된 엔벨로프 데이터의 버퍼링된 에너지들을 재사용하는 것과, 은닉된 프레임마다 3 dB의 상수 비만큼 버퍼링된 에너지들을 감소시키는 것을 제안한다. 그 결과는, 엔벨로프 조정기가 HF 생성기에 의해 생성된 패칭된(patched) 고대역들을 조정하는데 사용된 이득들을 계산하기 위해 이를 이용하는 정상 디코딩 프로세스에 공급된다. SBR 디코딩은 이 후 평상시처럼 발생한다. 더욱이, 델타 코딩된 잡음 플로어 및 사인 레벨 값들이 삭제된다. 이전 정보에 대한 차이가 이용가능하게 남아있지 않기 때문에, 디코딩된 잡음 플로어 및 사인 레벨들은 HF 생성된 신호의 에너지에 비례하여 남아있다[3GP12e, 섹션 5.2].
DRM 협회는 AAC와 연계하여 SBR에 대해 3GPP와 동일한 기술을 규정하였다[EBU12, 섹션 5.6.3.1]. 더욱이, DAB 협회는 DAB+에서의 SBR에 대해 3GPP와 동일한 기술을 규정한다[EBU10, 섹션 A2].
다음에서, MPEG-4 CELP 및 MPEG-4 HVXC(HVXC=Harmonic Vector Excitation Coding)가 고려된다. DRM 협회는 CELP 및 HVXC와 연계하여 SBR에 대해[EBU12, 섹션 5.6.3.2] 음성 코덱들을 위한 SBR에 대한 최소 요건 은닉이, 붕괴된 SBR 프레임이 삭제될 때마다 데이터 값들의 미리 결정된 세트를 적용하기 위한 것임을 규정한다. 이들 값들은 낮은 상대적인 재생 레벨에서 정적의 고대역 스펙트럼 엔벨로프를 산출하고, 이것은 더 높은 주파수쪽으로의 롤-오프(roll-off)를 나타낸다. 그 목적은 간단히 "안락 잡음"(엄격한 뮤팅에 대조적으로)을 삽입함으로써, 잘못된-행위의, 잠재적으로 시끄러운, 오디오 버스트들이 청취자의 귀에 도달하지 않는 것을 보장하는 것이다. 이것은 사실상 실제 페이드-아웃이 이루어지지 않고, 오히려 몇몇 종류의 안락 잡음을 삽입하기 위해 특정 에너지 레벨로의 도약이 이루어진다.
후속하여, 대안이 언급되고[EBU12, 섹션 5.6.3.2], 이 대안은 마지막으로 정확히 디코딩된 데이터를 재사용하고, AAC + SBR 경우와 유사하게 레벨들(L)을 0쪽으로 느리게 페이딩한다.
이제, MPEG-4 HILN이 고려된다(HILN = Harmonic and Individual Lines plus Noise). 마인(Meine) 등은 파라미터성 도메인[MEP01]에서 파라미터성 MPEG-4 HILN 코덱[ISO09]을 위한 페이드-아웃을 소개한다. 계속적인 고조파 성분들에 대해, 붕괴된 차동적으로 인코딩된 파라미터들을 교체하기 위한 양호한 디폴트 행위는 주파수를 일정하게 유지하는 것이고, 감쇄 인자(예를 들어, -6 dB)만큼 진폭을 감소시키는 것이고, 스펙트럼 엔벨로프가 평균화된 저역 통과 특징의 것쪽으로 수렴하도록 하는 것이다. 스펙트럼 엔벨로프에 대한 대안은 스펙트럼 엔벨로프를 변하지 않은 상태로 유지하는 것이다. 진폭들 및 스펙트럼 엔벨로프들에 대해, 잡음 성분들은 고조파 성분들과 동일한 방식으로 처리될 수 있다.
다음에서, 종래 기술에서의 배경 잡음 레벨의 추적이 고려된다. Rangachari 및 Loizou [RL06]는 여러 방법들의 양호한 개요를 제공하고, 그 제한들 중 몇몇을 논의한다. 배경 잡음 레벨을 추적하기 위한 방법들은 예를 들어, 최소 추적 절차[RL06] [Coh03] [SFB00] [Dob95], VAD 기반(VAD=voice activity detection); 칼맨 필터링[Gan05] [BJH06], 서브스페이스 분해들[BP06] [HJH08]; 소프트 결정[SS98] [MPC89] [HE95], 및 최소 통계이다.
최소 통계 접근법은 USAC-2(USAC=Unified Speech and Audio Coding)을 위한 범주 내에서 사용되도록 선택되었고, 후속하여 더 구체적으로 개술된다.
최적의 평활화(smoothing) 및 최소 통계[Mar01]에 기초한 잡음 전력 스펙트럼 밀도 추정은 잡음 추정기를 도입하고, 이러한 잡음 추정기는 능동 음성 또는 배경 잡음인 신호와 독립적으로 작용할 수 있다. 다른 방법들과 대조적으로, 최소 통계 알고리즘은 음성 활동과 음성 정지 사이를 구별하기 위해 임의의 명백한 임계치를 이용하지 않으므로, 전형적인 보이스 활동 검출 방법들보다 소프트-결정 방법들에 더 밀접하게 관련된다. 소프트-결정 방법들과 유사하게, 음성 활동 동안 추정된 잡음 PSD(Power Spectral Density)를 또한 업데이트할 수 있다.
최소 통계 방법은 즉, 음성과 잡음이 일반적으로 통계적으로 독립적이고, 잡음 음성 신호의 전력이 종종 잡음의 전력 레벨로 지연되는 2가지 관찰들에 있다. 그러므로, 잡음 신호 PSD의 최소치를 트래킹(tracking)함으로써 정밀한 잡음 PSD(PSD=power spectral density) 추정을 도출하는 것이 가능하다. 최소치가 평균값보다 작기(또는 다른 경우들에서 동일하기) 때문에, 최소치 트래킹 방법은 편향 보상을 요구한다.
편향은 평활화된 신호 PSD의 변동의 함수이고, 이와 같이, PSD 추정기의 평활화 파라미터에 의존한다. 일정한 평활화 파라미터 및 일정한 최소치 편향 정정을 이용하는 최소치 트래킹 상에서 더 일찍 작용하는 것에 비해, 시간 및 주파수에 의존하는 PSD 평활화가 사용되고, 이것은 또한 시간 및 주파수 의존 편향 보상을 요구한다.
최소치 트래킹을 이용하는 것은 잡음 전력의 어림 셈(rough estimate)을 제공한다. 하지만, 몇몇 결점들이 존재한다. 고정된 평활화 파라미터를 이용한 평활화는 평활화된 PSD 추정치의 음성 활동의 피크들을 확장한다. 이것은. 최소치 검색을 위한 슬라이딩 윈도우가 넓은 피크들로 미끄러질 수 있기 때문에 부적절한 잡음 추정들을 초래할 것이다. 따라서, 1에 가까운 평활화 파라미터들이 사용될 수 없고, 그 결과, 잡음 추정치는 비교적 큰 변동을 가질 것이다. 더욱이, 잡음 추정치는 낮은 값들쪽으로 편향된다. 더욱이, 증가하는 잡음 전력의 경우에, 최소치 트래킹은 뒤쳐진다.
낮은 복잡도를 갖는 MMSE 기반의 잡음 PSD 트래킹[HHJ10]은 DFT(Discrete Fourier Transform) 상에서 사용된 MMSE 검색을 이용하여 배경 잡음 PSD 접근법을 도입한다. 알고리즘은 이들 처리 단계들로 구성된다:
- 최대 우도(maximum likelihood) 추정기는 이전 프레임의 잡음 PSD에 기초하여 계산된다.
- 최소 평균 제곱 추정기가 계산된다.
- 최대 우도 추정기는 결정-지향 접근법[EM84]을 이용하여 추정된다.
- 역방향 편향 인자는, 음성 및 잡음 DFT 계수들이 가우시안 분배된다는 것을 가정하여 계산된다.
- 추정된 잡음 전력 스펙트럼 밀도는 평활화된다.
알고리즘의 완전한 교착(dead lock)을 피하기 위해 적용된 안전망의(safety-net) 접근법이 또한 존재한다.
데이터-구동 회귀적 잡음 전력 추정에 기초한 비-고정 잡음의 트래킹[EH08]은 크게 비-고정 잡음 소스들에 의해 오염된 음성 신호들로부터의 잡음 스펙트럼 변동의 추정을 위한 방법을 소개한다. 이 방법은 또한 시간/주파수 방향에서의 평활화를 이용한다.
잡음 전력 추정 및 추정 편향 정정의 평활화에 기초한 저-복잡도 잡음 추정 알고리즘[Yu09]은 [EH08]에 소개된 접근법을 개선한다. 주요 차이점은, 잡음 전력 추정을 위한 스펙트럼 이득 함수가 반복적인 데이터-구동 방법에 의해 발견된다는 것이다.
잡음 음성의 개선을 위한 통계 방법들[Mar03]은 소프트-결정 이득 변형[MCA99]에 의해, 선험적(a-priori) SNR의 추정[MCA99]에 의해, 적응형 이득 제한[MC99]에 의해, 그리고 MMSE 로그 스펙트럼 진폭 추정기[EM85]에 의해 [Mar01]에 주어진 최소치 통계치 접근법을 조합한다.
페이드 아웃은 특히 복수의 음성 및 오디오 코덱들, 특히 AMR([3GP12b]를 참조)(ACELP 및 CNG를 포함), AMR-WB([3GP09c]를 참조)(ACELP 및 CNG를 포함), AMR-WB+([3GP09a]를 참조)(ACELP, TCX 및 CNG를 포함}, G.718([ITU08a]를 참조), G.719([ITU08b]를 참조), G.722([ITU07]을 참조), G.722.1([ITU05]를 참조), G.729([ITU12, CPK08, PKJ+11]을 참조), MPEG-4 HE-AAC/Enhanced aacPlus([EBU10, EBU12, 3GP12e, LS01, QD03]을 참조)(AAC 및 SBR을 포함), MPEG-4 HILN([ISO09, MEP01]을 참조) 및 OPUS([IET12]를 참조)(SILK 및 CELT를 포함)에 관심이 있다.
코덱에 따라, 페이드-아웃은 상이한 도메인들에서 수행된다:
LPC를 이용하는 코덱들에 대해, 페이드-아웃은 선형 예측 도메인(또한 여기 도메인으로서 알려짐)에서 수행된다. 이것은 ACELP, 예를 들어, AMR, AMR-WB, AMR-WB+의 ACELP 코어, G.718, G.729, G.729.1, OPUS에서의 SILK 코어에 기초한 코덱들; 시간-주파수 변환, 예를 들어, AMR-WB+의 TCX 코어, OPUS에서의 CELT 코어를 이용하여 여기 신호를 추가로 처리하는 코덱들; 및 선형 예측 도메인, 예를 들어 AMR에서의 CNG, AMR-WB에서의 CNG, AMR-WB+에서의 CNG에서 동작하는 안락 잡음 생성(CNG) 계획들에 대해 그러하다.
시간 신호를 주파수 도메인으로 직접 변환하는 코덱들에 대해, 페이드-아웃은 스펙트럼/서브대역 도메인에서 수행된다. 이것은 MDCT, 또는 MPEG-4 HE-AAC에서의 AAC, G.719, G.722(서브대역 도메인) 및 G.722.1과 같은 유사한 변환에 기초한 코덱들에 대해 그러하다.
파라미터성 코덱들에 대해, 페이드-아웃은 파라미터성 도메인에 적용된다. 이것은 MPEG-4 HILN에 대해 그러하다.
페이드-아웃 속도 및 페이드-아웃 곡선에 관해, 페이드-아웃은 감쇄 인자의 적용에 의해 공통적으로 실현되고, 이것은 적절한 도메인에서의 신호 표현에 적용된다. 감쇄 인자의 크기는 페이드-아웃 속도 및 페이드-아웃 곡선을 제어한다. 대부분의 경우에, 감쇄 인자는 프레임 방식으로 적용되지만, 또한 샘플 방식의 적용이 이용되고, 예를 들어, G.718 및 G.722를 참조하자.
특정 신호 세그먼트에 대한 감쇄 인자는 2가지 방식들, 절대적 및 상대적으로 제공될 수 있다.
감쇄 인자가 절대적으로 제공되는 경우에, 기준 레벨은 항상 마지막으로 수신된 프레임 중 하나이다. 절대 감쇄 인자들은 일반적으로 마지막 양호한 프레임 직후에 신호 세그먼트에 대해 1에 가까운 값에서 시작하고, 그런 후에 0쪽으로 더 빠르거나 더 느리게 저하된다. 페이드-아웃 곡선은 이들 인자들에 직접적으로 의존한다. 이것은, 예를 들어, G.722의 첨부 IV에 기재된 은닉에 대한 경우이고(특히, [ITU07, 도 IV.7]을 참조), 여기서 가능한 페이드-아웃 곡선들은 선형이거나 점차 선형이 된다. 이득 인자(g(n)), 반면 g(0)는 마지막으로 양호한 프레임의 이득 인자를 나타내고, 절대 감쇄 인자(aabs(n))를 고려하면, 임의의 후속 손실된 프레임의 이득 인자는 수학식 21로서 도출될 수 있다
Figure pct00038
감쇄 인자가 상대적으로 제공되는 경우에, 기준 레벨은 이전 프레임으로부터의 레벨이다. 이것은 회귀 은닉 절차의 경우에, 예를 들어 미리 감쇄된 신호가 추가로 처리되고 다시 감쇄되는 경우에 장점들을 갖는다.
감쇄 인자가 회귀적으로 적용되면, 이것은 연속적으로 손실된 프레임들의 개수와 독립적인 고정된 값, 예를 들어, G.719에 대해 0.5(위를 참조); 예를 들어, [CPK08]에서 G.729에 대해 제안된 것과 같이, 연속적으로 손실된 프레임들의 개수에 상대적인 고정된 값; 처음 2개의 프레임들에 대해 1.0, 다음 2개의 프레임들에 대해 0.9, 프레임들(5 및 6)에 대해 0.8, 및 모든 후속 프레임들에 대해 0(위를 참조); 또는 연속적으로 손실된 프레임들의 개수에 상대적이고 신호 특징들, 예를 들어 불안정한 신호에 대해 더 빠른 페이드-아웃 및 안정한 신호에 대해 더 느린 페이드-아웃, 예를 들어 G718(위의 섹션 및 [ITU08a, 표 44]를 참조)에 의존하는 값일 수 있다.
상대적인 페이드-아웃 인자(0≤arel(n)≤1){n은 손실된 프레임(n≥1)의 개수임}를 고려하면; 임의의 후속 프레임의 이득 인자는 다음과 같이 도출될 수 있다:
Figure pct00039
Figure pct00040
Figure pct00041
이것은 지수적 페이딩을 초래한다.
페이드-아웃 절차에 관해, 일반적으로, 감쇄 인자가 규정되지만, 몇몇 응용 표준들(DRM, DAB+)에서, 감쇄 인자는 제조업자에게 위임된다.
상이한 신호 부분들이 개별적으로 페이딩되면, 상이한 감쇄 인자들은 예를 들어, 특정 속도를 갖는 음조(tonal) 성분들 및 다른 속도를 갖는 잡음-형 성분들(예를 들어, AMR, SILK)을 페이딩하는데 적용될 수 있다.
일반적으로, 특정 이득은 전체 프레임에 적용된다. 페이딩이 스펙트럼 도메인에서 수행될 때, 이것은 가능한 유일한 방식이다. 하지만, 페이딩이 시간 도메인 또는 선형 예측 도메인에서 이루어지면, 더욱 과립형의(granular) 페이딩이 가능하다. 그러한 더욱 과립형의 페이딩은 G.718에서 적용되고, 여기서 개별적인 이득 인자들은 마지막 프레임의 이득 인자와 현재 프레임의 이득 인자 사이에서의 선형 보간에 의해 각 샘플에 대해 도출된다.
가변 프레임 지속기간을 갖는 코덱들에 대해, 상대적인 감쇄 인자는 프레임 지속기간에 따라 상이한 페이드-아웃 속도를 초래한다. 이것은 예를 들어, AAC에 대한 경우인데, 여기서 프레임 지속기간은 샘플링율에 의존한다.
적용된 페이딩 곡선을 마지막으로 수신된 신호의 시간 형태에 채택하기 위해, (정적) 페이드-아웃 인자들이 추가로 조정될 수 있다. 그러한 추가 동적 조정은 예를 들어, 이전 5개의 이득 인자들의 평균이 고려되는 AMR에 대해 적용된다([3GP12b] 및 섹션 1.8.1을 참조]. 임의의 감쇄가 수행되기 전에, 현재 이득은 평균이 마지막 이득보다 작으면 평균으로 설정되고, 그렇지 않으면 마지막 이득이 사용된다. 더욱이, 그러한 추가 동적 조정은 예를 들어, 진폭이 이전의 이득 인자들의 선형 회귀를 이용하여 예측되는 G729에 대해 적용된다([CPK08, PKJ+11] 및 섹션 1.6을 참조). 이 경우에, 제 1 은닉된 프레임들에 대한 결과적인 이득 인자는 마지막으로 수신된 프레임의 이득 인자를 초과할 수 있다.
페이드-아웃의 목표 레벨에 관해, G.718 및 CELT를 제외하고, 목표 레벨은 이들 코덱들의 안락 잡음 생성(CNG)을 포함하는 모든 분석된 코덱들에 대해 0이다.
G.718에서, 피치 여기(음조 성분들을 나타냄)의 페이딩과 랜덤 여기(잡음-형 성분들을 나타냄)의 페이딩은 개별적으로 수행된다. 피치 이득 인자가 0으로 페이딩되지만, 혁신 이득 인자는 CNG 여기 에너지로 페이딩된다.
상대적인 감쇄 인자들이 주어진다고 가정하면, 이것은 - 수학식 23에 기초하여 - 다음의 절대 감쇄 인자를 초래한다:
Figure pct00042
여기서, gn은 안락 잡음 생성 동안 사용된 여기의 이득이다. 이러한 수학식은 gn=0일 때 수학식 23에 대응한다.
G.718은 DTX/CNG의 경우에서 페이드-아웃을 수행하지 않는다.
목표 레벨쪽으로의 페이딩이 없고 음조 은닉(페이드-아웃을 포함)의 5개의 프레임들 이후에 페이딩되는 CELT에서, 레벨은 제 6 연속적으로 손실된 프레임에서 목표 레벨로 순간적으로 스위칭된다. 레벨은 수학식 19를 이용하여 밴드 방식으로 도출된다.
페이드-아웃의 목표 스펙트럼 형태에 관해, 모든 분석된 순 변환 기반의 코덱들(AAC, G.719, G.722, G.722.1)뿐 아니라 SBR은 간단히 페이드-아웃 동안 마지막으로 양호한 프레임의 스펙트럼 형태를 연장한다.
다양한 음성 코덱들은 LPC 합성을 이용하여 스펙트럼 형태를 평균에 페이딩한다. 평균은 정적(AMR) 또는 적응성(AMR-WB, AMR-WB+, G.718)일 수 있는 반면, 적응성은 정적 평균 및 단기간 평균(마지막 n LP 계수 세트들을 평균화함으로써 도출됨)(LP=Linear Prediction)으로부터 도출된다.
논의된 코덱들(AMR, AMR-WB, AMR-WB+, G.718)에서의 모든 CNG 모듈들은 페이드-아웃 동안 마지막으로 양호한 프레임의 스펙트럼 형태를 연장한다.
배경 잡음 레벨 추적에 관해, 논문으로부터 알려진 5개의 상이한 접근법들이 존재한다:
- SNR/VAD에 기초하지만, 낮은 SNR 음성에 사용하기에 어렵고 튜닝하기에 매우 어려운 보이스 활동도 검출기.
- 소프트-결정 계획: 소프트-결정 접근법은 음성 존재의 확률을 고려한다[SS98][MPC89][HE95].
- 최소 통계: PSD의 최소치가 트래킹되어 버퍼에서 시간이 지남에 따라 값들의 특정 양을 유지하고, 이에 따라 과거 샘플들로부터 최소 잡음을 발견하도록 한다[Mar01][HHJ10][EH08][Yu09].
- 칼만 필터링: 알고리즘은 잡음(랜덤 변동들)을 포함하는, 시간이 지남에 따라 관찰된 일련의 측정치들을 이용하고, 단일 측정치에만 기초한 것들보다 더 정밀한 경향을 갖는 잡음 PSD의 추정치들을 발생시킨다. 칼만 필터는 시스템 상태의 통계적으로 최적인 추정치를 발생시키기 위해 잡음 입력 데이터의 스트림들 상에서 회귀적으로 동작한다[Gan05][BJH06].
- 서브스페이스 분해: 이러한 접근법은 예를 들어 KLT(Karhunen-Loeve transform, 또한 주요 성분 분석으로서 알려짐) 및/또는 DFT(Discrete Time Fourier Transform)을 이용하여 잡음형 신호를 깨끗한 음성 신호 및 잡음 부분으로 분해하려고 시도한다. 그런 후에, 고유 벡터들/고유 값들은 임의의 평활화 알고리즘을 이용하여 추적될 수 있다[BP06][HJH08].
본 발명의 목적은 오디오 코딩 시스템들을 위한 개선된 개념들을 제공하는 것이다. 본 발명의 목적은 제1항에 따른 장치에 의해, 제12항에 따른 방법에 의해, 그리고 제13항에 따른 컴퓨터 프로그램에 의해 해결된다.
재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치가 제공된다. 장치는 하나 이상의 프레임들을 수신하기 위한 수신 인터페이스, 계수 생성기, 및 신호 재구성기를 포함한다. 계수 생성기는, 하나 이상의 프레임들의 현재 프레임이 수신 인터페이스에 의해 수신되면, 그리고 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 현재 프레임에 의해 포함되는 하나 이상의 제 1 오디오 신호 계수들을 결정하도록 구성되고, 상기 하나 이상의 제 1 오디오 신호 계수들은 인코딩된 오디오 신호의 특징을 나타내고, 하나 이상의 잡음 계수들은 인코딩된 오디오 신호의 배경 잡음을 나타낸다. 더욱이, 계수 생성기는, 현재 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되면, 하나 이상의 제 1 오디오 신호 계수들에 따라, 그리고 하나 이상의 잡음 계수들에 따라, 하나 이상의 제 2 오디오 신호 계수들을 생성하도록 구성된다. 오디오 신호 재구성기는, 현재 프레임이 수신 인터페이스에 의해 수신되면, 그리고 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 하나 이상의 제 1 오디오 신호 계수들에 따라 재구성된 오디오 신호의 제 1 부분을 재구성하도록 구성된다. 더욱이, 오디오 신호 재구성기는, 현재 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되면, 하나 이상의 제 2 오디오 신호 계수들에 따라 재구성된 오디오 신호의 제 2 부분을 재구성하도록 구성된다.
몇몇 실시예들에서, 하나 이상의 제 1 오디오 신호 계수들은 예를 들어, 인코딩된 오디오 신호의 하나 이상의 선형 예측 필터 계수들일 수 있다. 몇몇 실시예들에서, 하나 이상의 제 1 오디오 신호 계수들은 예를 들어 인코딩된 오디오 신호의 하나 이상의 선형 예측 필터 계수들일 수 있다.
실시예에 따라, 하나 이상의 잡음 계수들은 예를 들어, 인코딩된 오디오 신호의 배경 잡음을 나타내는 하나 이상의 선형 예측 필터 계수들일 수 있다. 실시예에서, 하나 이상의 선형 예측 필터 계수들은 예를 들어, 배경 잡음의 스펙트럼 형태를 나타낼 수 있다.
실시예에서, 계수 생성기는 예를 들어, 하나 이상의 제 2 오디오 신호 부분들이 재구성된 오디오 신호의 하나 이상의 선형 예측 필터 계수들이 되거나, 하나 이상의 제 1 오디오 신호 계수들이 재구성된 오디오 신호의 하나 이상의 이미턴스 스펙트럼 쌍들이 되도록 하나 이상의 제 2 오디오 신호 부분들을 결정하도록 구성될 수 있다.
실시예에 따라, 계수 생성기는 예를 들어, 수학식
Figure pct00043
을 적용함으로써 하나 이상의 제 2 오디오 신호 계수들을 생성하도록 구성될 수 있고,
여기서 f current [i]는 하나 이상의 제 2 오디오 신호 계수들 중 하나를 나타내고, f last [i]는 하나 이상의 제 1 오디오 신호 계수들 중 하나를 나타내고, pt mean [i]는 하나 이상의 잡음 계수들 중 하나이고, α는 0 ≤α≤1을 갖는 실수이고, i는 인덱스이다. 실시예에서, 0 < α < 1이다.
실시예에 따라, f last [i]는 인코딩된 오디오 신호의 선형 예측 필터 계수를 나타내고, f current [i]는 재구성된 오디오 신호의 선형 예측 필터 계수를 나타낸다.
실시예에서, pt mean [i]는 예를 들어, 인코딩된 오디오 신호의 배경 잡음을 나타낼 수 있다.
실시예에서, 계수 생성기는 예를 들어, 하나 이상의 프레임들의 현재 프레임이 수신 인터페이스에 의해 수신되면, 그리고 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 인코딩된 오디오 신호의 잡음 스펙트럼을 결정함으로써 하나 이상의 계수들을 결정하도록 구성될 수 있다.
실시예에 따라, 계수 생성기는 예를 들어, 배경 잡음 스펙트럼을 결정하기 위해 신호 스펙트럼 상에서 최소 통계 접근법을 이용함으로써, 그리고 배경 잡음 스펙트럼으로부터 배경 잡음 형태를 나타내는 LPC 계수들을 계산함으로써 배경 잡음을 나타내는 LPC 계수들을 결정하도록 구성될 수 있다.
더욱이, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 방법이 제공된다. 방법은
- 하나 이상의 프레임들을 수신하는 단계,
- 하나 이상의 프레임들의 현재 프레임이 수신되면, 그리고 수신되는 현재 프레임이 붕괴되지 않으면, 현재 프레임에 의해 포함되는 하나 이상의 제 1 오디오 신호 계수들을 결정하는 단계로서, 상기 하나 이상의 제 1 오디오 신호 계수들은 인코딩된 오디오 신호의 특징을 나타내고, 하나 이상의 잡음 계수들은 인코딩된 오디오 신호의 배경 잡음을 나타내는, 결정 단계,
- 현재 프레임이 수신되지 않으면, 또는 수신되는 현재 프레임이 붕괴되면, 하나 이상의 제 1 오디오 신호 계수들에 따라, 그리고 하나 이상의 잡음 계수들에 따라 하나 이상의 제 2 오디오 신호 계수들을 생성하는 단계,
현재 프레임이 수신되면, 그리고 수신되는 현재 프레임이 붕괴되지 않으면, 하나 이상의 제 1 오디오 신호 계수들에 따라 재구성된 오디오 신호의 제 1 부분을 재구성하는 단계, 및
- 현재 프레임이 수신되지 않으면, 또는 수신되는 현재 프레임이 붕괴되면, 하나 이상의 제 2 오디오 신호 계수들에 따라 재구성된 오디오 신호의 제 2 부분을 재구성하는 단계를
포함한다.
더욱이, 컴퓨터 또는 신호 프로세서 상에서 실행될 때 전술한 방법을 구현하기 위한 컴퓨터 프로그램이 제공된다.
페이드 아웃 동안 안락 잡음의 스펙트럼 형태를 추적하고 적용하기 위한 공통 수단을 갖는 것은 여러 가지 장점들을 갖는다. 양쪽 코어 코덱들에 대해 유사하게 이루어질 수 있도록 스펙트럼 형태를 추적하고 적용하는 것은 간단한 공통 접근법을 허용한다. CELT는 스펙트럼 도메인에서 에너지의 대역 방식 추적 및 스펙트럼 도메인에서 스펙트럼 형태의 대역 방식 형성만을 가르치고, 이것은 CELP 코어에 대해 가능하지 않다.
이와 대조적으로, 종래 기술에서, 버스트 손실들 동안 도입된 안락 잡음의 스펙트럼 형태는 완전히 정적이거나, 부분적으로 정적이고, 스펙트럼 형태의 단기간 평균에 부분적으로 적응되고(G.718 [ITU08a]에서 실현된 바와 같이), 일반적으로 패킷 손실 이전에 신호에서의 배경 잡음에 매칭하지 않을 것이다. 안락 잡음 특징의 미스매치는 교란될 수 있다. 종래 기술에 따라, 오프라인 트레이닝된(정적) 배경 잡음 형태가 사용될 수 있고, 특정 신호들에 대해 쾌적한 사운드일 수 있지만, 다른 것들, 예를 들어 사무실 잡음과 완전히 상이한 자동차 잡음 사운드들에 대해 덜 쾌적할 수 있다.
더욱이, 종래 기술에서, 이전에 수신된 프레임들의 스펙트럼 형태의 단기간 평균에 대한 적응이 이용될 수 있고, 신호 특징들을 이전에 수신된 신호, 반드시 그럴 필요는 없지만, 배경 잡음 특징들에 더 가까이 다가갈 수 있다. 종래 기술에서, 스펙트럼 도메인에서 대역 방식으로 스펙트럼 형태를 추적하는 것은(CELT[IET12]에서 실현됨) MDCT 도메인 기반의 코어(TCX)뿐 아니라 ACELP 기반의 코어를 이용하여 스위칭된 코덱에 대해 적용가능하지 않다. 전술한 실시예들은 이에 따라 종래 기술에 비해 유리하다.
더욱이, 오디오 신호를 디코딩하기 위한 장치가 제공된다.
장치는 수신 인터페이스를 포함한다. 수신 인터페이스는 복수의 프레임들을 수신하도록 구성되고, 수신 인터페이스는 복수의 프레임들 중 제 1 프레임을 수신하도록 구성되고, 상기 제 1 프레임은 오디오 신호의 제 1 오디오 신호 부분을 포함하고, 상기 제 1 오디오 신호 부분은 제 1 도메인에서 표현되고, 수신 인터페이스는 복수의 프레임들 중 제 2 프레임을 수신하도록 구성되고, 상기 제 2 프레임은 오디오 신호의 제 2 오디오 신호 부분을 포함한다.
더욱이, 장치는 제 2 신호 부분 정보를 얻기 위해 제 2 오디오 신호 부분으로부터 도출된 제 2 오디오 신호 부분 또는 값 또는 신호를 제 2 도메인으로부터 추적 도메인으로 변환하기 위한 변환 유닛을 포함하고, 제 2 도메인은 제 1 도메인과 상이하고, 추적 도메인은 제 2 도메인과 상이하고, 추적 도메인은 제 1 도메인과 동일하거나 상이하다.
더욱이, 장치는 잡음 레벨 추적 유닛을 포함하고, 잡음 레벨 추적 유닛은 추적 도메인에서 표현되는 제 1 신호 부분 정보를 수신하도록 구성되고, 제 1 신호 부분 정보는 제 1 오디오 신호 부분에 의존한다. 잡음 레벨 추적 유닛은 추적 도메인에서 표현되는 제 2 신호 부분을 수신하도록 구성되고, 잡음 레벨 추적 유닛은 추적 도메인에서 표현되는 제 1 신호 부분 정보에 따라 그리고, 추적 도메인에서 표현되는 제 2 신호 부분 정보에 따라 잡음 레벨 정보를 결정하도록 구성된다.
더욱이, 장치는, 복수의 프레임들의 제 3 프레임이 수신 인터페이스에 의해 수신되지 않고 붕괴되면, 잡음 레벨 정보에 따라 오디오 신호의 제 3 오디오 신호 부분을 재구성하기 위한 재구성 유닛을 포함한다.
오디오 신호는 예를 들어, 음성 신호, 또는 음악 신호, 또는 음성 및 음악 등을 포함하는 신호일 수 있다.
제 1 신호 부분 정보가 제 1 오디오 신호 부분에 의존한다는 언급은, 제 1 신호 부분 정보가 제 1 오디오 신호 부분이라는 것, 또는 제 1 신호 부분 정보가 제 1 오디오 신호 부분에 따라 얻어진다는/생성된다는 것, 또는 몇몇 다른 방식으로, 제 1 오디오 신호 부분에 의존한다는 것을 의미한다. 예를 들어, 제 1 오디오 신호 부분은 제 1 신호 부분 정보를 얻기 위해 하나의 도메인으로부터 다른 도메인으로 변환되었을 수 있다.
마찬가지로, 제 2 신호 부분 정보가 제 2 오디오 신호 부분에 의존한다는 언급은, 제 2 신호 부분 정보가 제 2 오디오 신호 부분이라는 것, 또는 제 2 신호 부분 정보가 제 2 오디오 신호 부분에 따라 얻어진다는/생성된다는 것, 또는 몇몇 다른 방식으로 제 2 오디오 신호 부분에 의존한다는 것을 의미한다. 예를 들어, 제 2 오디오 신호 부분은 제 2 신호 부분 정보를 얻기 위해 하나의 도메인으로부터 다른 도메인으로 변환되었을 수 있다.
일실시예에서, 제 1 오디오 신호 부분은 예를 들어, 제 1 도메인으로서 시간 도메인에서 표현될 수 있다. 더욱이, 변환 유닛은 예를 들어, 제 2 오디오 신호 부분 또는 제 2 오디오 신호 부분으로부터 도출된 값을 제 2 도메인인 여기 도메인으로부터 추적 도메인인 시간 도메인으로 변환하도록 구성될 수 있다. 더욱이, 잡음 레벨 추적 유닛은 예를 들어, 추적 도메인으로서 시간 도메인에서 표현되는 제 1 신호 부분 정보를 수신하도록 구성될 수 있다. 더욱이, 잡음 레벨 추적 유닛은 예를 들어, 추적 도메인으로서 시간 도메인에서 표현되는 제 2 신호 부분을 수신하도록 구성될 수 있다.
일실시예에 따라, 제 1 오디오 신호 부분은 예를 들어, 제 1 도메인으로서 여기 도메인에서 표현될 수 있다. 더욱이, 변환 유닛은 예를 들어, 제 2 오디오 신호 부분 또는 제 2 오디오 신호 부분으로부터 도출된 값을 제 2 도메인인 시간 도메인으로부터 추적 도메인인 여기 도메인으로 변환하도록 구성될 수 있다. 더욱이, 잡음 레벨 추적 유닛은 예를 들어, 추적 도메인으로서 여기 도메인에서 표현되는 제 1 신호 부분 정보를 수신하도록 구성될 수 있다. 더욱이, 잡음 레벨 추적 유닛은 예를 들어, 추적 도메인으로서 여기 도메인에서 표현되는 제 2 신호 부분을 수신하도록 구성될 수 있다.
일실시예에서, 제 1 오디오 신호 부분은 예를 들어, 제 1 도메인으로서 여기 도메인에서 표현될 수 있고, 잡음 레벨 추적 유닛은 예를 들어, 제 1 신호 부분 정보를 수신하도록 구성될 수 있고, 상기 제 1 신호 부분 정보는 추적 도메인인 FFT 도메인에서 표현되고, 상기 제 1 신호 부분 정보는 여기 도메인에서 표현되는 상기 제 1 오디오 신호 부분에 의존하고, 변환 유닛은 예를 들어, 제 2 오디오 신호 부분 또는 제 2 오디오 신호 부분으로부터 도출된 값을 추적 도메인인 FFT 도메인으로 변환하도록 구성되고, 잡음 레벨 추적 유닛은 예를 들어, FFT 도메인에서 표현되는 제 2 오디오 신호 부분을 수신하도록 구성될 수 있다.
일실시예에서, 장치는 예를 들어, 제 1 오디오 신호 부분에 따라 제 1 집합된 값을 결정하기 위한 제 1 집합 유닛을 더 포함할 수 있다. 더욱이, 장치는 예를 들어, 제 2 오디오 신호 부분에 따라 제 2 오디오 신호 부분으로부터 도출된 값으로서 제 2 집합된 값을 결정하기 위한 제 2 집합 유닛을 더 포함할 수 있다. 더욱이, 잡음 레벨 추적 유닛은 예를 들어, 추적 도메인에서 표현되는 제 1 신호 부분 정보로서 제 1 집합된 값을 수신하도록 구성될 수 있고, 잡음 레벨 추적 유닛은 예를 들어, 추적 도메인에서 표현되는 제 2 신호 부분 정보로서 제 2 집합된 값을 수신하도록 구성될 수 있고, 잡음 레벨 추적 유닛은 예를 들어, 추적 도메인에서 표현되는 제 1 집합된 값에 따라, 그리고 추적 도메인에서 표현되는 제 2 집합된 값에 따라 잡음 레벨 정보를 결정하도록 구성될 수 있다.
일실시예에 따라, 제 1 집합 유닛은 예를 들어, 제 1 집합된 값이 제 1 오디오 신호 부분 또는 제 1 오디오 신호 부분으로부터 도출된 신호의 제곱 평균 제곱근(root mean square)을 나타내도록 제 1 집합된 값을 결정하도록 구성될 수 있다. 더욱이, 제 2 집합 유닛은 예를 들어, 제 2 집합된 값이 제 2 오디오 신호 부분 또는 제 2 오디오 신호 부분으로부터 도출된 신호의 제곱 평균 제곱근을 나타내도록 제 2 집합된 값을 결정하도록 구성될 수 있다.
일실시예에서, 변환 유닛은 예를 들어, 제 2 오디오 신호 부분으로부터 도출된 값 상에 이득 값을 적용함으로써 제 2 오디오 신호 부분으로부터 도출된 값을 제 2 도메인으로부터 추적 도메인으로 변환하도록 구성될 수 있다.
실시예들에 따라, 이득 값은 예를 들어, 선형 예측 코딩 합성에 의해 도입된 이득을 나타낼 수 있거나, 이득 값은 예를 들어, 선형 예측 코딩 합성 및 디엠퍼시스에 의해 도입된 이득을 나타낼 수 있다.
일실시예에서, 잡음 레벨 추적 유닛은 예를 들어, 최소 통계 접근법을 적용함으로써 잡음 레벨 정보를 결정하도록 구성될 수 있다.
일실시예에 따라, 잡음 레벨 추적 유닛은 예를 들어, 잡음 레벨 정보로서 안락 잡음을 결정하도록 구성될 수 있다. 재구성 유닛은 예를 들어, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 잡음 레벨 정보에 따라 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다.
일실시예에서, 잡음 레벨 추적 유닛은 예를 들어, 잡음 레벨 스펙트럼으로부터 도출된 잡음 레벨 정보로서 안락 잡음 레벨을 결정하도록 구성될 수 있고, 상기 잡음 레벨 스펙트럼은 최소 통계 접근법을 적용함으로써 얻어진다. 재구성 유닛은 예를 들어, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 복수의 선형 예측 계수들에 따라 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다.
다른 실시예에 따라, 잡음 레벨 추적 유닛은 예를 들어, 잡음 레벨 정보로서 안락 잡음 레벨을 나타내는 복수의 선형 예측 계수들을 결정하도록 구성될 수 있고, 재구성 유닛은 예를 들어, 복수의 선형 예측 계수들에 따라 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다.
일실시예에서, 잡음 레벨 추적 유닛은 잡음 레벨 정보로서 안락 잡음 레벨을 나타내는 복수의 FFT 계수들을 결정하도록 구성되고, 제 1 재구성 유닛은, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 상기 FFT 계수들로부터 도출된 안락 잡음 레벨에 따라 제 3 오디오 신호 부분을 재구성하도록 구성된다.
일실시예에서, 재구성 유닛은 예를 들어, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 잡음 레벨 정보에 따라 그리고 제 1 오디오 신호 부분에 따라 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다.
일실시예에 따라, 재구성 유닛은 예를 들어, 제 1 또는 제 2 오디오 신호 부분으로부터 도출된 신호를 감쇄하거나 증폭함으로써 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다.
일실시예에서, 장치는 예를 들어, 지연 버퍼를 포함하는 장기간 예측 유닛을 더 포함할 수 있다. 더욱이, 장기간 예측 유닛은 예를 들어, 제 1 또는 제 2 오디오 신호 부분에 따라, 지연 버퍼에 저장된 지연 버퍼 입력에 따라, 그리고 장기간 예측 이득에 따라, 처리된 신호를 생성하도록 구성될 수 있다. 더욱이, 장기간 예측 유닛은 예를 들어, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 장기간 예측 이득을 0쪽으로 페이딩하도록 구성될 수 있다.
일실시예에 따라, 장기간 예측 유닛은 예를 들어, 장기간 예측 이득을 0쪽으로 페이딩하도록 구성될 수 있고, 장기간 예측 이득이 0으로 페이딩되는 속도는 페이드-아웃 인자에 의존한다.
일실시예에서, 장기간 예측 유닛은 예를 들어, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 생성된 처리된 신호를 지연 버퍼에 저장함으로써 지연 버퍼 입력을 업데이트하도록 구성될 수 있다.
일실시예에 따라, 변환 유닛은 예를 들어, 제 1 변환 유닛일 수 있고, 재구성 유닛은 제 1 재구성 유닛이다. 장치는 제 2 변환 유닛 및 제 2 재구성 유닛을 더 포함한다. 제 2 변환 유닛은 예를 들어, 복수의 프레임들 중 제 4 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 4 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 잡음 레벨 정보를 추적 도메인으로부터 제 2 도메인으로 변환하도록 구성될 수 있다. 더욱이, 제 2 재구성 유닛은 예를 들어, 복수의 프레임 중 상기 제 4 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 4 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 제 2 도메인에서 표현되는 잡음 레벨 정보에 따라 오디오 신호의 제 4 오디오 신호 부분을 재구성하도록 구성될 수 있다.
일실시예에서, 제 2 재구성 유닛은 예를 들어, 잡음 레벨 정보에 따라, 그리고 제 2 오디오 신호 부분에 따라 제 4 오디오 신호 부분을 재구성하도록 구성될 수 있다.
일실시예에 따라, 제 2 재구성 유닛은 예를 들어, 제 1 또는 제 2 오디오 신호 부분으로부터 도출된 신호를 감쇄하거나 증폭함으로써 제 4 오디오 신호 부분을 재구성하도록 구성될 수 있다.
더욱이, 오디오 신호를 디코딩하기 위한 방법이 제공된다.
방법은
- 복수의 프레임들의 제 1 프레임을 수신하는 단계로서, 상기 제 1 프레임은 오디오 신호의 제 1 오디오 신호 부분을 포함하고, 상기 제 1 오디오 신호 부분은 제 1 도메인에서 표현되는, 복수의 프레임들의 제 1 프레임을 수신하는 단계;
- 복수의 프레임들의 제 2 프레임을 수신하는 단계로서, 상기 제 2 프레임은 오디오 신호의 제 2 오디오 신호 부분을 포함하는, 복수의 프레임들의 제 2 프레임을 수신하는 단계;
- 제 2 신호 부분 정보를 얻기 위해 제 2 오디오 신호 부분, 또는 제 2 오디오 신호 부분으로부터 도출된 값 또는 신호를 제 2 도메인으로부터 추적 도메인으로 변환하는 단계로서, 제 2 도메인은 제 1 도메인과 상이하고, 추적 도메인은 제 2 도메인과 상이하고, 추적 도메인은 제 1 도메인과 동일하거나 상이한, 변환하는 단계;
- 추적 도메인에서 표현되는 제 1 신호 부분 정보에 따라, 그리고 추적 도메인에서 표현되는 제 2 신호 부분 정보에 따라, 잡음 레벨 정보를 결정하는 단계로서, 제 1 신호 부분 정보는 제 1 오디오 신호 부분에 의존하는, 결정하는 단계, 및
- 복수의 프레임들의 제 3 프레임이 수신되지 않으면, 또는 상기 제 3 프레임이 수신되지만, 붕괴되면, 추적 도메인에서 표현되는 잡음 레벨 정보에 따라 오디오 신호의 제 3 오디오 신호 부분을 재구성하는 단계를
포함한다.
더욱이, 컴퓨터 또는 신호 프로세서 상에서 실행될 때 전술한 방법을 구현하기 위한 컴퓨터 프로그램이 제공된다.
본 발명의 몇몇 실시예들은, 편향 보상을 위한 알고리즘을 제공하고 일반적으로 잡음 트래킹을 가속시키기 위해, 평활화된 주기도(periodogram)의 트래킹 성능과 그 변동이 더 양호하게 균형을 이루도록 시간 변화 평활화 파라미터를 제공한다.
본 발명의 실시예들은 페이드-아웃에 관해, 다음의 파라미터들이 관심 있다는 발견에 기초한다: 페이드-아웃 도메인; 페이드-아웃 속도, 또는 더 일반적으로, 페이드-아웃 곡선; 페이드-아웃의 목표 레벨; 페이드-아웃의 목표 스펙트럼 형태; 및/또는 배경 잡음 레벨 추적. 이러한 정황에서, 실시예들은, 종래 기술이 중요한 결함들을 갖는다는 발견에 기초한다.
오디오 은닉 동안 스위칭된 오디오 코딩 시스템들에 대해 개선된 신호 페이드 아웃을 위한 장치 및 방법이 제공된다.
더욱이, 컴퓨터 또는 신호 프로세서 상에서 실행될 때 전술한 방법을 구현하기 위한 컴퓨터 프로그램이 제공된다.
실시예들은 안락 잡음 레벨로의 페이드-아웃을 실현한다. 실시예들에 따라, 여기 도메인에서의 공통적인 안락 잡음 레벨이 실현된다. 버스트 패킷 손실 동안 목표로 정해진 안락 잡음 레벨은 사용시 코어 코더(ACELP/TCX)에도 불구하고 동일할 것이고, 항상 최신형일 것이다. 알려진 종래 기술은 없으며, 여기서 공통적인 잡음 레벨 추적이 필요하다. 실시예들은 버스트 패킷 손실들 동안 안락 잡음형 신호로의 스위칭된 코덱의 페이딩을 제공한다.
더욱이, 실시예들은, 기능들(PROM) 및 메모리가 공유될 수 있기 때문에 전체 복잡도가 2개의 독립적인 잡음 레벨 추적 모듈들을 갖는 것에 비해 더 낮아지는 것을 실현한다.
실시예들에서, 여기 도메인에서의 레벨 도출(시간 도메인에서의 레벨 도출에 비해)은 능동 음성 동안 더 최소치를 제공하는데, 이는 음성 정보의 부분이 LP 계수들에 의해 커버되기 때문이다.
ACELP의 경우에, 실시예들에 따라, 레벨 도출은 여기 도메인에서 발생한다. TCX의 경우에, 실시예들에서, 레벨은 시간 도메인에서 도출되고, LPC 합성 및 디엠퍼시스의 이득은 여기 도메인에서 에너지 레벨을 모델링하기 위해 정정 인자로서 적용된다. 예를 들어, FDNS 이전에, 여기 도메인에서 레벨을 추적하는 것은 또한 이론적으로 가능하지만, TCX 여기 도메인과 ACELP 여기 도메인 사이의 레벨 보상은 약간 더 복잡한 것으로 간주된다.
종래 기술은 상이한 도메인들에서 그러한 공통적인 배경 레벨 추적을 병합하지 않는다. 종래 기술은 스위칭된 코덱 시스템에서, 예를 들어 여기 도메인에서, 그러한 공통적인 안락 잡음 레벨 추적을 갖지 않는다. 따라서, 실시예들은 종래 기술에 비해 유리한데, 이는 종래 기술에 대해, 버스트 패킷 손실들 동안 목표로 정해진 안락 잡음 레벨이 레벨이 추적된 이전 코딩 모드(ACELP/TCX)에 따라 상이할 수 있기 때문이고; 종래 기술에서, 각 코딩 모드에 대해 개별적인 추적이 불필요한 오버헤드(overhead) 및 추가적인 계산 복잡도를 야기하기 때문이고; 종래 기술에서, 이러한 코어로의 최근의 스위칭으로 인해 어느 코어에서도 최신 안락 잡음 레벨이 이용가능하지 않기 때문이다.
몇몇 실시예들에 따라, 레벨 추적은 여기 도메인에서 수행되지만, TCX 페이드-아웃은 시간 도메인에서 수행된다. 시간 도메인에서의 페이딩에 의해, TDAC의 장애들이 회피되고, 이것은 얼라이싱을 야기한다. 이것은 특히 음조 신호 성분들이 은닉될 때 관심 있다. 더욱이, ACELP 여기 도메인과 MDCT 스펙트럼 도메인 사이의 레벨 변환이 회피되어, 예를 들어, 계산 리소스들이 절감된다. 여기 도메인과 시간 도메인 사이의 스위칭으로 인해, 레벨 조정은 여기 도메인과 시간 도메인 사이에서 요구된다. 이것은 LPC 합성 및 프리엠퍼시스(preemphasis)에 의해 도입된 이득의 도출에 의해, 그리고 2개의 도메인들 사이에서 레벨을 변환하기 위해 정정 인자로서 이러한 이득을 이용하여 해결된다.
이와 대조적으로, 종래 기술은 여기 도메인에서의 레벨 추적과, 시간 도메인에서의 TCX 페이드-아웃을 수행하지 않는다. 종래 기술의 변환 기반의 코덱들에 관해, 감쇄 인자는 여기 도메인(시간-도메인/ACELP형 은닉 접근법들에 대해, [3GP09a]를 참조)에서 또는 주파수 도메인(프레임 반복 또는 잡음 교체와 같은 주파수 도메인 접근법들에 대해, [LS01]을 참조)에 적용된다. 주파수 도메인에서 감쇄 인자를 적용하기 위해 종래 기술의 접근법의 결함은, 얼라이싱이 시간 도메인에서의 중첩-추가 영역에서 야기된다는 것이다. 이것은, 상이한 감쇄 인자들이 적용되는 인접 프레임들에 대해 그러할 것인데, 이는 페이딩 절차가 TDAC(time domain alias cancellation)의 장애를 야기하기 때문이다. 이것은 특히 음조 신호 성분들이 은닉될 때 관련된다. 이에 따라, 전술한 실시예들은 종래 기술에 비해 유리하다.
실시예들은 LPC 합성 이득에 대한 고역 통과 필터의 영향을 보상한다. 실시예들에 따라, 고역 통과 필터링된 무성음 여기에 의해 야기된 LPC 분석 및 엠퍼시스의 불필요한 이득 변화를 보상하기 위해, 정정 인자가 도출된다. 이러한 정정 인자는 이러한 불필요한 이득 변화를 고려하고, 여기 도메인에서의 목표 안락 잡음 레벨을 변형하여, 정확한 목표 레벨이 시간 도메인에 도달된다.
이와 대조적으로, 종래 기술, 예를 들어 G.718[ITU08a]는, 마지막으로 양호한 프레임의 신호가 무성음으로서 분류되지 않으면, 도 2에 도시된 바와 같이, 무성음 여기의 신호 경로에 고역 통과 필터를 도입한다. 이에 의해, 종래 기술은 불필요한 부작용들을 야기하는데, 이는 후속적인 LPC 합성의 이득이 이러한 고역 통과 필터에 의해 변경되는 신호 특징들에 의존하기 때문이다. 배경 레벨이 여기 도메인에서 추적되고 적용되기 때문에, 알고리즘은 LPC 합성 이득에 의존하고, 이것은 다시 여기 신호의 특징들에 의존한다. 즉, 종래 기술에 의해 수행된 바와 같이, 고역 통과 필터링으로 인한 여기의 신호 특징들의 변형은 LPC 합성의 변형된(일반적으로 감소된) 이득을 초래할 수 있다. 이것은, 여기 레벨이 정확하더라도 잘못된 출력 레벨을 초래한다.
실시예들은 종래 기술의 이들 단점들을 극복한다.
특히, 실시예들은 안락 잡음의 적응형 스펙트럼 형태를 실현한다. G.718에 대조적으로, 배경 잡음의 스펙트럼 형태를 추적함으로써, 그리고 버스트 패킷 손실들 동안 이러한 형태를 적용(페이딩)함으로써, 선행하는 배경 잡음의 잡음 특징이 매칭되어, 안락 잡음의 쾌적한 잡음 특징을 초래한다. 이것은 오프라인 트레이닝(offline training)에 의해 도출된 스펙트럼 엔벨로프를 이용함으로써 도입될 수 있는 스펙트럼 형태 및/또는 마지막으로 수신된 프레임들의 스펙트럼 형태의 눈에 거슬리는 미스매치들(obtrusive mismatches)을 회피한다.
더욱이, 오디오 신호를 디코딩하기 위한 장치가 제공된다. 장치는 수신 인터페이스를 포함하고, 수신 인터페이스는 오디오 신호의 제 1 오디오 신호 부분을 포함하는 제 1 프레임을 수신하도록 구성되고, 수신 인터페이스는 오디오 신호의 제 2 오디오 신호 부분을 포함하는 제 2 프레임을 수신하도록 구성된다.
더욱이, 장치는 잡음 레벨 추적 유닛을 포함하고, 잡음 레벨 추적 유닛은 제 1 오디오 신호 부분 및 제 2 오디오 신호 부분 중 적어도 하나에 따라 잡음 레벨 정보를 결정하도록 구성되고(이것은 제 1 오디오 신호 부분 및/또는 제 2 오디오 신호 부분에 따르는 것을 의미한다), 잡음 레벨 정보는 추적 도메인에서 표현된다.더욱이, 장치는 제 1 재구성 도메인에서, 복수의 프레임들의 제 3 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 잡음 레벨 정보에 따라 오디오 신호의 제 3 오디오 신호 부분을 재구성하기 위한 제 1 재구성 유닛을 포함하고, 제 1 재구성 도메인은 추적 도메인과 상이하거나, 동일하다.
더욱이, 장치는, 복수의 프레임들의 제 4 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 4 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 잡음 레벨 정보를 추적 도메인으로부터 제 2 재구성 도메인으로 변환하기 위한 변환 유닛을 포함하고, 제 2 재구성 도메인은 추적 도메인과 상이하고, 제 2 재구성 도메인은 제 1 재구성 도메인과 상이하고,
더욱이, 장치는 제 2 재구성 도메인에서, 복수의 프레임들의 상기 제 4 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 4 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 제 2 재구성 도메인에서 표현되는 잡음 레벨 정보에 따라 오디오 신호의 제 4 오디오 신호 부분을 재구성하기 위한 제 2 재구성 유닛을 포함한다.
몇몇 실시예들에 따라, 추적 도메인은 예를 들어, 추적 도메인이 시간 도메인, 스펙트럼 도메인, FFT 도메인, MDCT 도메인, 또는 여기 도메인이 되도록 이루어질 수 있다. 제 1 재구성 도메인은 예를 들어, 시간 도메인, 스펙트럼 도메인, FFT 도메인, MDCT 도메인, 또는 여기 도메인일 수 있다. 제 2 재구성 도메인은 예를 들어, 시간 도메인, 스펙트럼 도메인, FFT 도메인, MDCT 도메인, 또는 여기 도메인일 수 있다.
일실시예에서, 추적 도메인은 예를 들어, FFT 도메인일 수 있고, 제 1 재구성 도메인은 예를 들어, 시간 도메인일 수 있고, 제 2 재구성 도메인은 예를 들어, 여기 도메인일 수 있다.
다른 실시예에서, 추적 도메인은 예를 들어, 시간 도메인일 수 있고, 제 1 재구성 도메인은 예를 들어, 시간 도메인일 수 있고, 제 2 재구성 도메인은 예를 들어, 여기 도메인일 수 있다.
일실시예에 따라, 상기 제 1 오디오 신호 부분은 예를 들어, 제 1 입력 도메인에서 표현될 수 있고, 상기 제 2 오디오 신호 부분은 예를 들어, 제 2 입력 도메인에서 표현될 수 있다. 변환 유닛은 예를 들어, 제 2 변환 유닛일 수 있다. 장치는 예를 들어, 제 2 신호 부분 정보를 얻기 위해 제 2 오디오 신호 부분 또는 제 2 오디오 신호 부분으로부터 도출된 값 또는 신호를 제 2 입력 도메인으로부터 추적 도메인으로 변환하기 위한 제 1 변환 유닛을 더 포함할 수 있다. 잡음 레벨 추적 유닛은 예를 들어, 추적 도메인에서 표현되는 제 1 신호 부분 정보를 수신하도록 구성될 수 있고, 제 1 신호 부분 정보는 제 1 오디오 신호 부분에 의존하고, 잡음 레벨 추적 유닛은 추적 도메인에서 표현되는 제 2 신호 부분을 수신하도록 구성되고, 잡음 레벨 추적 유닛은 추적 도메인에서 표현되는 제 1 신호 부분 정보에 따라, 그리고 추적 도메인에서 표현되는 제 2 신호 부분 정보에 따라 잡음 레벨 정보를 결정하도록 구성된다.
일실시예에 따라, 제 1 입력 도메인은 예를 들어, 여기 도메인일 수 있고, 제 2 입력 도메인은 예를 들어, MDCT 도메인일 수 있다.
다른 실시예에서, 제 1 입력 도메인은 예를 들어, MDCT 도메인일 수 있고, 제 2 입력 도메인은 예를 들어 MDCT 도메인일 수 있다.
일실시예에 따라, 제 1 재구성 유닛은 예를 들어, 잡음형 스펙트럼으로의 제 1 페이딩을 수행함으로써 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다. 제 2 재구성 유닛은 예를 들어, 잡음형 스펙트럼으로의 제 2 페이딩 및/또는 LTP 이득의 제 2 페이딩을 수행함으로써 제 4 오디오 신호 부분을 재구성하도록 구성될 수 있다. 더욱이, 제 1 재구성 유닛 및 제 2 재구성 유닛은 예를 들어, 잡음형 스펙트럼으로의 제 1 페이딩 및 제 2 페이딩 및/또는 동일한 페이딩 속도를 갖는 LTP 이득의 제 2 페이딩을 수행하도록 구성될 수 있다.
일실시예에서, 장치는 예를 들어, 제 1 오디오 신호 부분에 따라 제 1 집합된 값을 결정하기 위한 제 1 집합 유닛을 더 포함할 수 있다. 더욱이, 장치는 예를 들어, 제 2 오디오 신호 부분에 따라, 제 2 오디오 신호 부분으로부터 도출된 값으로서 제 2 집합된 값을 결정하기 위한 제 2 집합 유닛을 더 포함할 수 있다. 잡음 레벨 추적 유닛은 예를 들어, 추적 도메인에서 표현되는 제 1 신호 부분 정보로서 제 1 집합된 값을 수신하도록 구성될 수 있고, 잡음 레벨 추적 유닛은 예를 들어, 추적 도메인에서 표현되는 제 2 신호 부분 정보로서 제 2 집합된 값을 수신하도록 구성될 수 있고, 잡음 레벨 추적 유닛은 추적 도메인에서 표현되는 제 1 집합된 값에 따라, 그리고 추적 도메인에서 표현되는 제 2 집합된 값에 따라 잡음 레벨 정보를 결정하도록 구성된다.
일실시예에 따라, 제 1 집합 유닛은 예를 들어, 제 1 집합된 값이 제 1 오디오 신호 부분 또는 제 1 오디오 신호 부분으로부터 도출된 신호의 제곱 평균 제곱근을 나타내도록 제 1 집합된 값을 결정하도록 구성될 수 있다. 제 2 집합 유닛은, 제 2 집합된 값이 제 2 오디오 신호 부분 또는 제 2 오디오 신호 부분으로부터 도출된 신호의 제곱 평균 제곱근을 나타내도록 제 2 집합된 값을 결정하도록 구성된다.
일실시예에서, 제 1 변환 유닛은 예를 들어, 제 2 오디오 신호 부분으로부터 도출된 값 상에 이득 값을 적용함으로써 제 2 오디오 신호 부분으로부터 도출된 값을 제 2 입력 도메인으로부터 추적 도메인으로 변환하도록 구성될 수 있다.
일실시예에 따라, 이득 값은 예를 들어, 선형 예측 코딩 합성에 의해 도입된 이득을 나타낼 수 있거나, 이득 값은 선형 예측 코딩 합성 및 디엠퍼시스에 의해 도입된 이득을 나타낸다.
일실시예에서, 잡음 레벨 추적 유닛은 예를 들어, 최소 통계 접근법을 적용함으로써 잡음 레벨 정보를 결정하도록 구성될 수 있다.
일실시예에 따라, 잡음 레벨 추적 유닛은 예를 들어, 잡음 레벨 정보로서 안락 잡음 레벨을 결정하도록 구성될 수 있다. 재구성 유닛은 예를 들어, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 잡음 레벨 정보에 따라 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다.
일실시예에서, 잡음 레벨 추적 유닛은 예를 들어, 잡음 레벨 스펙트럼으로부터 도출된 잡음 레벨 정보로서 안락 잡음 레벨을 결정하도록 구성될 수 있고, 상기 잡음 레벨 스펙트럼은 최소 통계 접근법을 적용함으로써 얻어진다. 재구성 유닛은 예를 들어, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 복수의 선형 예측 계수들에 따라 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다.
일실시예에 따라, 제 1 재구성 유닛은 예를 들어, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 잡음 레벨 정보에 따라 그리고 제 1 오디오 신호 부분에 따라, 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다.
일실시예에서, 제 1 재구성 유닛은 예를 들어, 제 1 오디오 신호 부분을 감쇄하거나 증폭함으로써 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다.
일실시예에 따라, 제 2 재구성 유닛은 예를 들어, 잡음 레벨 정보에 따라 그리고 제 2 오디오 신호 부분에 따라 제 4 오디오 신호 부분을 재구성하도록 구성될 수 있다.
일실시예에서, 제 2 재구성 유닛은 예를 들어, 제 2 오디오 신호 부분을 감쇄하거나 증폭함으로써 제 4 오디오 신호 부분을 재구성하도록 구성될 수 있다.
일실시예에 따라, 장치는 예를 들어, 지연 버퍼를 포함하는 장기간 예측 유닛을 더 포함할 수 있고, 장기간 예측 유닛은 예를 들어, 제 1 또는 제 2 오디오 신호 부분에 따라, 지연 버퍼에 저장된 지연 버퍼 입력에 따라, 그리고 장기간 예측 이득에 따라 처리된 신호를 생성하도록 구성될 수 있고, 장기간 예측 유닛은, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 장기간 예측 이득을 0쪽으로 페이딩하도록 구성된다.
일실시예에서, 장기간 예측 유닛은 예를 들어, 장기간 예측 이득을 0쪽으로 페이딩하도록 구성될 수 있고, 장기간 예측 이득이 0으로 페이딩되는 속도는 페이드-아웃 인자에 의존한다.
일실시예에서, 장기간 예측 유닛은 예를 들어, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 생성된 처리된 신호를 지연 버퍼에 저장함으로써 지연 버퍼 입력을 업데이트하도록 구성될 수 있다.
더욱이, 오디오 신호를 디코딩하기 위한 방법이 제공된다. 방법은
- 오디오 신호의 제 1 오디오 신호 부분을 포함하는 제 1 프레임을 수신하고, 오디오 신호의 제 2 오디오 신호 부분을 포함하는 제 2 프레임을 수신하는 단계,
- 제 1 오디오 신호 부분 및 제 2 오디오 신호 부분 중 적어도 하나에 따라 잡음 레벨 정보를 결정하는 단계로서, 잡음 레벨 정보는 추적 도메인에서 표현되는, 잡음 레벨 정보를 결정하는 단계,
- 제 1 재구성 도메인에서, 복수의 프레임들의 제 3 프레임이 수신되지 않으면, 또는 상기 제 3 프레임이 수신되지만, 붕괴되면, 잡음 레벨 정보에 따라 오디오 신호의 제 3 오디오 신호 부분을 재구성하는 단계로서, 제 1 재구성 도메인은 추적 도메인과 상이하거나 동일한, 제 3 오디오 신호 부분을 재구성하는 단계,
- 복수의 프레임들의 제 4 프레임이 수신되지 않으면, 또는 상기 제 4 프레임이 수신되지만, 붕괴되면, 잡음 레벨 정보를 추적 도메인으로부터 제 2 재구성 도메인으로 변환하는 단계로서, 제 2 재구성 도메인은 추적 도메인과 상이하고, 제 2 재구성 도메인은 제 1 재구성 도메인과 상이한, 변환 단계, 및
- 제 2 재구성 도메인에서, 복수의 프레임들의 상기 제 4 프레임이 수신되지 않으면, 또는 상기 제 4 프레임이 수신되지만, 붕괴되면, 제 2 재구성 도메인에서 표현되는 잡음 레벨 정보에 따라 오디오 신호의 제 4 오디오 신호 부분을 재구성하는 단계를
포함한다.
더욱이, 컴퓨터 또는 신호 프로세서 상에서 실행될 때 전술한 방법을 구현하기 위한 컴퓨터 프로그램이 제공된다.
더욱이, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치가 제공된다. 장치는 인코딩된 오디오 신호의 오디오 신호 스펙트럼의 복수의 오디오 신호 샘플들에 대한 정보를 포함하는 하나 이상의 프레임들을 수신하기 위한 수신 인터페이스, 및 재구성된 오디오 신호를 생성하기 위한 프로세서를 포함한다. 프로세서는, 현재 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 현재 프레임이 수신 인터페이스에 의해 수신되지만 붕괴되면, 변형된 스펙트럼을 목표 스펙트럼에 페이딩함으로써 재구성된 오디오 신호를 생성하도록 구성되고, 여기서 변형된 스펙트럼은 복수의 변형된 신호 샘플들을 포함하고, 변형된 스펙트럼의 각 변형된 신호 샘플들에 대해, 상기 변형된 신호 샘플의 절대값은 오디오 신호 스펙트럼의 오디오 신호 샘플들 중 하나의 오디오 신호 샘플의 절대값과 동일하다. 더욱이, 프로세서는, 하나 이상의 프레임들의 현재 프레임이 수신 인터페이스에 의해 수신되면, 그리고 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 변형된 스펙트럼을 목표 스펙트럼에 페이딩하지 않도록 구성된다.
일실시예에 따라, 목표 스펙트럼은 예를 들어, 잡음형 스펙트럼일 수 있다.
일실시예에서, 잡음형 스펙트럼은 예를 들어, 백색 잡음을 나타낼 수 있다.
일실시예에 따라, 잡음형 스펙트럼은 예를 들어, 성형(shaped)될 수 있다.
일실시예에서, 잡음형 스펙트럼의 형태는 예를 들어, 이전에 수신된 신호의 오디오 신호 스펙트럼에 의존할 수 있다.
일실시예에 따라, 잡음형 스펙트럼은 예를 들어, 오디오 신호 스펙트럼의 형태에 따라 성형될 수 있다.
일실시예에서, 프로세서는 예를 들어, 잡음형 스펙트럼을 성형하기 위해 경사 인자를 이용할 수 있다.
일실시예에 따라, 프로세서는 예를 들어, 수학식 shaped_noise[i] = noise * power(tilt_factor,i/N)을 이용할 수 있고,
여기서 N은 샘플들의 개수를 표시하고, i는 인덱스이고, 0<=i<N이고, tilt_factor>0이고, power는 멱함수이다.
power(x,y)는 xy를 표시하고,
power(tilt_factor,i/N)은
Figure pct00044
을 표시한다.
tilt_factor가 1보다 작으면, 이것은 증가하는 i를 갖는 감쇄를 의미한다. tilt_factor가 1보다 크면, 이것은 증가하는 i를 갖는 증폭을 의미한다.
다른 실시예에 따라, 프로세서는 예를 들어, 수학식 shaped_noise[i] = noise * (1+i/(N-1) * (tilt_factor-1))을 이용할 수 있고,
여기서 N은 샘플들의 개수를 표시하고, i는 인덱스이고, 0<=i<N이고, tilt_factor>0이다.
tilt_factor가 1보다 작으면, 이것은 증가하는 i를 갖는 감쇄를 의미한다. tilt-factor가 1보다 크면, 이것은 증가하는 i를 갖는 증폭을 의미한다.
일실시예에 따라, 프로세서는 예를 들어, 현재 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되면, 오디오 신호 스펙트럼의 오디오 신호 샘플들 중 하나 이상의 오디오 신호 샘플의 부호를 변경함으로써 변형된 스펙트럼을 생성하도록 구성될 수 있다.
일실시예에서, 오디오 신호 스펙트럼의 오디오 신호 샘플들 각각은 예를 들어, 실수에 의해 표현되지만, 허수에 의해 표현되지 않을 수 있다.
일실시예에 따라, 오디오 신호 스펙트럼의 오디오 신호 샘플들은 예를 들어, 변형된 이산 코사인 변환 도메인으로 표현될 수 있다.
다른 실시예에서, 오디오 신호 스펙트럼의 오디오 신호 샘플들은 예를 들어, 변형된 이산 사인 변환 도메인으로 표현될 수 있다.
일실시예에 따라, 프로세서는 예를 들어, 제 1 또는 제 2 값을 무작위로 또는 의사-무작위로(pseudo-randomly) 출력하는 랜덤 부호 함수를 이용함으로써 변형된 스펙트럼을 생성하도록 구성될 수 있다.
일실시예에서, 프로세서는 예를 들어, 감쇄 인자를 후속적으로 감소시킴으로써 변형된 스펙트럼을 목표 스펙트럼에 페이딩하도록 구성될 수 있다.
일실시예에 따라, 프로세서는 예를 들어, 감쇄 인자를 후속적으로 증가시킴으로써 변형된 스펙트럼을 목표 스펙트럼에 페이딩하도록 구성될 수 있다.
일실시예에서, 현재 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되면, 프로세서는 예를 들어, 수학식 x[i] = (1-cum_damping) * noise[i] + cum_damping * random_sign() * x_old[i]을 이용함으로써 재구성된 오디오 신호를 생성하도록 구성될 수 있고,
여기서 i는 인덱스이고, x[i]는 재구성된 오디오 신호의 샘플을 나타내고, cum_damping은 감쇄 인자이고, x_old[i]는 인코딩된 오디오 신호의 오디오 신호 스펙트럼의 오디오 신호 샘플들 중 하나를 나타내고, random_sign()은 1 또는 -1로 리턴(return)하고, noise는 목표 스펙트럼을 나타내는 확률 벡터(random vector)이다.
일실시예에서, 상기 확률 벡터 noise는 예를 들어, 확률 벡터의 이차 평균(quadratic mean)이 수신 인터페이스에 의해 마지막으로 수신되는 프레임들 중 하나의 프레임에 의해 포함되는 인코딩된 오디오 신호의 스펙트럼의 이차 평균과 유사하도록 스케일링될 수 있다.
일반적인 실시예에 따라, 프로세서는, 예를 들어, 확률 벡터의 이차 평균이 수신 인터페이스에 의해 마지막으로 수신되는 프레임들 중 하나의 프레임에 의해 포함되는 인코딩된 오디오 신호의 스펙트럼의 이차 평균과 유사하도록 스케일링되는 확률 벡터를 이용함으로써 재구성된 오디오 신호를 생성하도록 구성될 수 있다.
더욱이, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 방법이 제공된다. 방법은
- 인코딩된 오디오 신호의 오디오 신호 스펙트럼의 복수의 오디오 신호 샘플들에 대한 정보를 포함하는 하나 이상의 프레임들을 수신하는 것, 및
- 재구성된 오디오 신호를 생성하는 것을
포함한다.
재구성된 오디오 신호를 생성하는 것은, 현재 프레임이 수신되지 않으면 또는 현재 프레임이 수신되지만 붕괴되면, 변형된 스펙트럼을 목표 스펙트럼에 페이딩함으로써 수행되고, 변형된 스펙트럼은 복수의 변형된 신호 샘플들을 포함하고, 변형된 스펙트럼의 변형된 신호 샘플들 각각에 대해, 상기 변형된 신호 샘플의 절대값은 오디오 신호 스펙트럼의 오디오 신호 샘플들 중 하나의 오디오 신호 샘플의 절대값과 동일하다. 변형된 스펙트럼은, 하나 이상의 프레임들의 현재 프레임이 수신되면, 그리고 수신되는 현재 프레임이 붕괴되지 않으면, 백색 잡음 스펙트럼에 페이딩되지 않는다.
더욱이, 컴퓨터 또는 신호 프로세서 상에서 실행될 때 전술한 방법을 구현하기 위한 컴퓨터 프로그램이 제공된다.
실시예들은 FDNS 적용(FDNS= Frequency Domain Noise Substitution) 이전에 백색 잡음으로의 페이드 MDCT 스펙트럼을 실현한다.
종래 기술에 따라, ACELP 기반의 코덱들에서, 혁신 코드북은 확률 벡터(예를 들어, 잡음)로 교체된다. 실시예들에서, 혁신 코드북을 확률 벡터(예를 들어, 잡음)로 교체하는 것으로 구성된 ACELP 접근법은 TCX 디코더 구조로 채택된다. 여기서, 혁신 코드북의 등가물은, 일반적으로 비트스트림 내에서 수신되고 FDNS에 공급된 MDCT 스펙트럼이다.
고전적인 MDCT 은닉 접근법은 간단히 이러한 스펙트럼을 그 자체로 반복하거나 특정 무작위화(randomization) 프로세스를 적용하기 위한 것이고, 이것은 기본적으로 마지막으로 수신된 프레임의 스펙트럼 형태를 연장한다[LS01]. 이것은, 단기간 스펙트럼 형태가 연장되어, 이것이 배경 잡음형이 아닌 반복적인 금속 사운드를 종종 초래하여, 안락 잡음으로서 사용될 수 없다는 결함을 갖는다.
제안된 방법을 이용하여, 단기간 스펙트럼 성형은 FDNS 및 TCX, LTP에 의해 수행되고, 오랜 실행시 스펙트럼 성형은 FDNS에 의해서만 수행된다. FDNS에 의한 성형은 단기간 스펙트럼 형태로부터 배경 잡음의 추적된 장기간 스펙트럼 형태로 페이딩되고, TCX LTP는 0으로 페이딩된다.
FDNS 계수들을 추적된 배경 잡음 계수들에 페이딩하는 것은 오랜 버스트 프레임 손실들의 경우에 쾌적한 배경 잡음을 달성하기 위해 오랜 실행시 목표로 정해져야 하는(targeted) 스펙트럼 배경 엔벨로프와 마지막으로 양호한 스펙트럼 엔벨로프 사이에서 매끄러운 전이를 갖는 것을 초래한다.
이와 대조적으로, 종래 기술에 따라, 변환 기반의 코덱들에 대해, 잡음형 은닉은 주파수 도메인에서 프레임 반복 또는 잡음 교체에 의해 수행된다[LS01]. 종래 기술에서, 잡음 교체는 일반적으로 스펙트럼 빈들의 부호 스크램블링에 의해 수행된다. 종래 기술에서 TCX(주파수 도메인) 부호 스크램블링이 은닉 동안 사용되면, 마지막으로 수신된 MDCT 계수들은 재사용되고, 각 부호는, 스펙트럼이 시간 도메인으로 역 변환되기 전에 무작위화된다. 종래 기술의 이러한 절차의 결함은, 연속적으로 손실된 프레임들에 대해, 동일한 스펙트럼이 상이한 부호 무작위화들 및 범용 감쇄만을 가지고 되풀이하여 사용된다. 거친 시간 그리드(coarse time grid) 상에서 시간이 지남에 따라 스펙트럼 엔벨로프를 탐색할 때, 엔벨로프가 연속적인 프레임 손실 동안 대략 동일한데, 이는 대역 에너지들이 프레임 내에서 서로에 대해 상대적으로 일정하게 유지되고 단지 범용적으로 감쇄되기 때문이라는 것을 알 수 있다. 사용된 코딩 시스템에서, 종래 기술에 따라, 스펙트럼 값들은 원래 스펙트럼을 복구하기 위해 FDNS를 이용하여 처리된다. 이것은, MDCT 스펙트럼을 특정 스펙트럼 엔벨로프(FDNS 계수들을 이용하여, 예를 들어 현재 배경 잡음을 기재하여)로 페이딩하기를 원하면, 그 결과는 FDNS 계수들에 의존할 뿐 아니라, 부호 스크램블링된 이전에 디코딩된 스펙트럼에 의존한다. 전술한 실시예들은 종래 기술의 이들 단점들을 극복한다.
실시예들은, 이를 FDNS 처리에 공급하기 전에 부호 스크램블링에 사용된 스펙트럼을 백색 잡음에 페이딩할 필요가 있다는 발견에 기초한다. 그렇지 않으면, 출력된 스펙트럼은 FDNS 처리에 사용된 목표로 정해진 엔벨로프에 매칭하지 않을 것이다.
실시예들에서, 동일한 페이딩 속도는 백색 잡음 페이딩에 대해서 LTP 이득 페이딩에 사용된다.
더욱이, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치가 제공된다. 장치는 복수의 프레임들을 수신하기 위한 수신 인터페이스, 디코딩된 오디오 신호의 오디오 신호 샘플들을 저장하기 위한 지연 버퍼, 지연 버퍼에 저장되는 오디오 신호 샘플들로부터 복수의 선택된 오디오 신호 샘플들을 선택하기 위한 샘플 선택기, 및 재구성된 오디오 신호의 재구성된 오디오 신호 샘플들을 얻기 위해 선택된 오디오 신호 샘플들을 처리하기 위한 샘플 프로세서를 포함한다. 샘플 선택기는, 현재 프레임이 수신 인터페이스에 의해 수신되면, 그리고 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 현재 프레임에 의해 포함되는 피치 래그 정보에 따라 지연 버퍼에 저장되는 오디오 신호 샘플들로부터 복수의 선택된 오디오 신호 샘플들을 선택하도록 구성된다. 더욱이, 샘플 선택기는, 현재 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되면, 수신 인터페이스에 의해 이전에 수신되는 다른 프레임에 의해 포함되는 피치 래그 정보에 따라 지연 버퍼에 저장된 오디오 신호 샘플들로부터 복수의 선택된 오디오 신호 샘플들을 선택하도록 구성된다.
일실시예에 따라, 샘플 프로세서는 예를 들어, 현재 프레임이 수신 인터페이스에 의해 수신되면, 그리고 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 현재 프레임에 의해 포함되는 이득 정보에 따라 선택된 오디오 신호 샘플들을 재스케일링함으로써 재구성된 오디오 신호 샘플들을 얻도록 구성될 수 있다. 더욱이, 샘플 선택기는 예를 들어, 현재 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되면, 수신 인터페이스에 의해 이전에 수신되는 상기 다른 프레임에 의해 포함되는 이득 정보에 따라 선택된 오디오 신호 샘플들을 재스케일링함으로써 재구성된 오디오 신호 샘플들을 얻도록 구성될 수 있다.
일실시예에서, 샘플 프로세서는, 예를 들어 현재 프레임이 수신 인터페이스에 의해 수신되면, 그리고 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 현재 프레임에 의해 포함되는 이득 정보에 따른 값과 선택된 오디오 신호 샘플들을 곱함으로써 재구성된 오디오 신호 샘플들을 얻도록 구성될 수 있다. 더욱이, 샘플 선택기는, 현재 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되면, 수신 인터페이스에 의해 이전에 수신되는 상기 다른 프레임에 의해 포함되는 이득 정보에 따른 값과 선택된 오디오 신호 샘플들을 곱함으로써 재구성된 오디오 신호 샘플들을 얻도록 구성된다.
일실시예에 따라, 샘플 프로세서는 예를 들어, 재구성된 오디오 신호 샘플들을 지연 버퍼에 저장하도록 구성될 수 있다.
일실시예에서, 샘플 프로세서는 예를 들어, 추가 프레임이 수신 인터페이스에 의해 수신되기 전에 재구성된 오디오 신호 샘플들을 지연 버퍼에 저장하도록 구성될 수 있다.
일실시예에 따라, 샘플 프로세서는 예를 들어, 추가 프레임이 수신 인터페이스에 의해 수신된 후에 재구성된 오디오 신호 샘플들을 지연 버퍼에 저장하도록 구성될 수 있다.
일실시예에서, 샘플 프로세서는 예를 들어, 재스케일링된 오디오 신호 샘플들을 얻기 위해 이득 정보에 따라, 그리고 처리된 오디오 신호 샘플들을 얻기 위해 재스케일링된 오디오 신호 샘플들과 입력 오디오 신호 샘플들을 조합함으로써 선택된 오디오 신호 샘플들을 재스케일링하도록 구성될 수 있다.
일실시예에 따라, 샘플 프로세서는 예를 들어, 재스케일링된 오디오 신호 샘플들과 입력 오디오 신호 샘플들의 조합을 나타내는 처리된 오디오 신호 샘플들을 지연 버퍼에 저장하고, 현재 프레임이 수신 인터페이스에 의해 수신되면, 그리고 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 재스케일링된 오디오 신호 샘플들을 지연 버퍼에 저장하지 않도록 구성될 수 있다. 더욱이, 샘플 프로세서는 재스케일링된 오디오 신호 샘플들을 지연 버퍼에 저장하고, 현재 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되면, 처리된 오디오 신호 샘플들을 지연 버퍼에 저장하지 않도록 구성된다.
다른 실시예에 따라, 샘플 프로세서는 예를 들어, 현재 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 수신 인터페이스에 의해 수신되는 현재 프레임이 붕괴되면, 처리된 오디오 신호 샘플들을 지연 버퍼에 저장하도록 구성될 수 있다.
일실시예에서, 샘플 선택기는 예를 들어, 변형된 이득에 따라 선택된 오디오 신호 샘플들을 재스케일링함으로써 재구성된 오디오 신호 샘플들을 얻도록 구성될 수 있고, 변형된 이득은 수학식 gain = gain_past * damping에 따라 정의되고,
여기서 gain은 변형된 이득이고, 샘플 선택기는 예를 들어, gain이 계산된 후에 gain_past를 gain으로 설정하도록 구성될 수 있고, damping은 실값(real value)이다.
일실시예에 따라, 샘플 선택기는 예를 들어, 변형된 이득을 계산하도록 구성될 수 있다.
일실시예에서, damping은 예를 들어, 0 ≤ damping ≤1에 따라 정의될 수 있다.
일실시예에 따라, 변형된 이득 gain은 예를 들어, 마지막 프레임이 수신 인터페이스에 의해 수신되었기 때문에 적어도 미리 한정된 수의 프레임들이 수신 인터페이스에 의해 수신되지 않았다면, 0으로 설정될 수 있다.
더욱이, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 방법이 제공된다. 방법은
- 복수의 프레임들을 수신하는 단계,
- 디코딩된 오디오 신호의 오디오 신호 샘플들을 저장하는 단계,
- 지연 버퍼에 저장되는 오디오 신호 샘플들로부터 복수의 선택된 오디오 신호 샘플들을 선택하는 단계, 및
- 재구성된 오디오 신호의 재구성된 오디오 신호 샘플들을 얻기 위해 선택된 오디오 신호 샘플들을 처리하는 단계를
포함한다.
현재 프레임이 수신되면, 그리고 수신되는 현재 프레임이 붕괴되지 않으면, 지연 버퍼에 저장되는 오디오 신호 샘플들로부터 복수의 선택된 오디오 신호 샘플들을 선택하는 단계는 현재 프레임에 의해 포함되는 피치 래그 정보에 따라 수행된다. 더욱이, 현재 프레임이 수신되지 않으면, 또는 수신되는 현재 프레임이 붕괴되면, 지연 버퍼에 저장되는 오디오 신호 샘플들로부터 복수의 선택된 오디오 신호 샘플들을 선택하는 단계는 수신 인터페이스에 의해 이전에 수신되는 다른 프레임에 의해 포함되는 피치 래그 정보에 따라 수행된다.
더욱이, 컴퓨터 또는 신호 프로세서 상에서 실행될 때 전술한 방법을 구현하기 위한 컴퓨터 프로그램이 제공된다.
실시예들은 TCX LTP(TCX LTP = Transform Coded Excitation Long-Term Prediction)을 이용한다. 정상 동작 동안, TCX LTP 메모리는 잡음 및 재구성된 음조 성분들을 포함하는 합성된 신호로 업데이트된다.
은닉 동안 TCX LTP를 디스에이블링(disabling)하는 것 대신에, 정상 동작은 마지막으로 양호한 프레임에서 수신된 파라미터들을 통해 은닉 동안 계속될 수 있다. 이것은 신호의 스펙트럼 형태, 특히 LTP 필터에 의해 변형되는 그러한 음조 성분들을 확보한다.
더욱이, 실시예들은 TCX LTP 피드백 루프를 결합 해제(decouple)한다. 정상 TCX LTP 동작의 간단한 계속은 추가 잡음을 도입하는데, 이는 각 업데이트 단계를 통해, LTP 여기로부터 추가의 무작위적으로 생성된 잡음이 도입되기 때문이다. 음조 성분들은 이를 통해 추가된 잡음에 의해 시간이 지남에 따라 더욱 더 왜곡된다.
이를 극복하기 위해, 업데이트된 TCX LTP 버퍼만이 원하지 않은 랜덤 잡음으로 음조 정보를 오염시키지 않기 위해 피드백될 수 있다(추가 잡음 없이).
더욱이, 실시예들에 따라, TCX LTP 이득은 0으로 페이딩된다.
이들 실시예들은, TCX LTP를 계속하는 것이 단기간에 신호 특징들을 확보하는데 도움을 주지만, 장기간에 대한 결점들을 갖는다는 발견에 기초한다: 은닉 동안 재생된 신호는 손실에 선행하여 존재한 보이싱/음조 정보를 포함할 것이다. 특히 깨끗한 음성 또는 배경 잡음에 걸친 음성에 대해, 음조 또는 고조파가 매우 긴 시간에 걸쳐 매우 느리게 감쇠할 가능성이 거의 없다. 은닉 동안 TCX LTP 동작을 계속함으로써, 특히 LTP 메모리 업데이트가 결합 해제되면(부호 스크램블링된 부분이 아니라 단지 음조 성분들이 피드백된다), 보이싱/음조 정보는 전체 페이드-아웃에 의해서만 안락 잡음 레벨로 감쇄되는 전체 손실에 대한 은닉된 신호에 존재하도록 유지할 것이다. 더욱이, 신호가 LTP의 보이싱 정보를 항상 병합하기 때문에, TCX LTP가 시간이 지남에 따라 감쇄되지 않고도 버스트 손실 동안 적용되면, 버스트 패킷 손실들 동안 안락 잡음 엔벨로프에 도달하는 것이 불가능하다.
그러므로, TCX LTP 이득은 0쪽으로 페이딩되어, LTP에 의해 표현된 음조 성분들은 0으로 페이딩될 것이고, 동시에 신호는 배경 신호 레벨 및 형태로 페이딩되고, 페이드-아웃은 바람직하지 않은 음조 성분들 없이 원하는 스펙트럼 배경 엔벨로프(안락 잡음)에 도달하게 된다.
실시예들에서, 동일한 페이딩 속도는 백색 잡음 페이딩에 대해 LTP 이득 페이딩에 사용된다.
이와 대조적으로, 종래 기술에서, 은닉 동안 LTP를 이용하는 알려진 변환 코덱은 존재하지 않는다. MPEG-4 LTP[IS09]에 대해, 종래 기술에는 은닉 접근법들이 존재하지 않는다. LTP를 이용하는 종래 기술의 다른 MDCT 기반의 코덱은 CELT이지만, 이러한 코덱은 처음 5개의 프레임들에 대한 ACELP-형 은닉을 이용하고, 후속 프레임들에 대해, 배경 잡음이 생성되고, 이것은 LTP를 이용하지 않는다. TCX LTP를 이용하지 않는 종래 기술의 결함은, LTP로 모델링되는 모든 음조 성분들이 갑자기 사라진다는 것이다. 더욱이, 종래 기술의 ACELP 기반의 코덱들에서, LTP 동작은 은닉 동안 연장되고, 적응형 코드북의 이득은 0쪽으로 페이딩된다. 피드북 루프 동작에 관해, 종래 기술은 2가지 접근법들을 이용하는데, 전체 여기, 예를 들어 혁신 및 적응형 여기의 합이 피드백된다(AMR-WB); 또는 업데이트된 적응형 여기만이, 예를 들어 음조 신호 부분들만이 피드백된다(G.718). 전술한 실시예들은 종래 기술의 단점들을 극복한다.
다음에서, 본 발명의 실시예들은 도면들을 참조하여 더 구체적으로 기재된다.
도 1a는 실시예에 따라 오디오 신호를 디코딩하기 위한 장치를 도시한 도면.
도 1b는 다른 실시예에 따라 오디오 신호를 디코딩하기 위한 장치를 도시한 도면.
도 1c는 다른 실시예에 따라 오디오 신호를 디코딩하기 위한 장치를 도시한 도면으로서, 장치는 제 1 및 제 2 집합 유닛을 더 포함하는, 도면.
도 1d는 추가 실시예에 따라 오디오 신호를 디코딩하기 위한 장치를 도시한 도면으로서, 장치는 더욱이 지연 버퍼를 포함하는 장기간 예측 유닛을 포함하는, 도면.
도 2는 G.718의 디코더 구조를 도시한 도면.
도 3은, G.722의 페이드-아웃 인자가 클래스 정보에 의존하는 시나리오를 도시한 도면.
도 4는 선형 회귀를 이용하여 진폭 예측을 위한 접근법을 도시한 도면.
도 5는 억제된-에너지 래핑된 변환(CELT)의 버스트 손실 행위를 도시한 도면.
도 6은 에러 없는 동작 모드 동안 디코더에서의 실시예에 따른 배경 잡음 레벨 추적을 도시한 도면.
도 7은 실시예에 따라 LPC 합성 및 디엠퍼시스의 이득 도출을 도시한 도면.
도 8은 실시예에 따라 패킷 손실 동안 안락 잡음 레벨 적용을 도시한 도면.
도 9는 실시예에 따라 ACELP 은닉 동안 진보된 고역 통과 이득 보상을 도시한 도면.
도 10은 실시예에 따라 은닉 동안 LTP 피드백 루프의 결합 해제를 도시한 도면.
도 11은 실시예에 따라 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치를 도시한 도면.
도 12는 다른 실시예에 따라 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치를 도시한 도면.
도 13은 추가 실시예에 따라 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치를 도시한 도면.
도 14는 다른 실시예에 따라 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치를 도시한 도면.
도 1a는 실시예에 따라 오디오 신호를 디코딩하기 위한 장치를 도시한다.
장치는 수신 인터페이스(110)를 포함한다. 수신 인터페이스는 복수의 프레임들을 수신하도록 구성되고, 수신 인터페이스(110)는 복수의 프레임들의 제 1 프레임을 수신하도록 구성되고, 상기 제 1 프레임은 오디오 신호의 제 1 오디오 신호 부분을 포함하고, 상기 제 1 오디오 신호 부분은 제 1 도메인에서 표현된다. 더욱이, 수신 인터페이스(110)는 복수의 프레임들의 제 2 프레임을 수신하도록 구성되고, 상기 제 2 프레임은 오디오 신호의 제 2 오디오 신호 부분을 포함한다.
더욱이, 장치는 제 2 신호 부분 정보를 얻기 위해 제 2 오디오 신호 부분, 또는 제 2 오디오 신호 부분으로부터 도출된 값 또는 신호를 제 2 도메인으로부터 추적 도메인으로 변환하기 위한 변환 유닛(120)을 포함하고, 제 2 도메인은 제 1 도메인과 상이하고, 추적 도메인은 제 2 도메인과 상이하고, 추적 도메인은 제 1 도메인과 동일하거나 상이하다.
더욱이, 장치는 잡음 레벨 추적 유닛(130)을 포함하고, 잡음 레벨 추적 유닛은 추적 도메인에서 표현되는 제 1 신호 부분 정보를 수신하도록 구성되고, 제 1 신호 부분 정보는 제 1 오디오 신호 부분에 의존하고, 잡음 레벨 추적 유닛은 추적 도메인에서 표현되는 제 2 신호 부분을 수신하도록 구성되고, 잡음 레벨 추적 유닛은 추적 도메인에서 표현되는 제 1 신호 부분 정보에 따라, 그리고 추적 도메인에서 표현되는 제 2 신호 부분 정보에 따라 잡음 레벨 정보를 결정하도록 구성된다.
더욱이, 장치는, 복수의 프레임들의 제 3 프레임이 수신 인터페이스에 의해 수신되지 않고, 붕괴되면, 잡음 레벨 정보에 따라 오디오 신호의 제 3 오디오 신호 부분을 재구성하기 위한 재구성 유닛을 포함한다.
예를 들어, 제 1 및/또는 제 2 오디오 신호 부분에 관해, 제 1 및/또는 제 2 오디오 신호 부분은 예를 들어, 하나 이상의 스피커들(loudspeakers)을 위한 하나 이상의 스피커 신호들을 생성하기 위해 하나 이상의 처리 유닛들(미도시)에 공급될 수 있어서, 제 1 및/또는 제 2 오디오 신호 부분에 의해 포함되는 수신된 사운드 정보는 재생될 수 있다.
하지만, 더욱이, 제 1 및 제 2 오디오 신호 부분은 또한 예를 들어, 후속 프레임들이 수신기에 도달하지 않는 경우에, 또는 후속 프레임들이 에러가 있는 경우에, 은닉에 사용된다.
특히, 본 발명은, 잡음 레벨 추적이 본 명세서에서 "추적 도메인"으로 언급되는 공통 도메인에서 수행되어야 한다는 발견에 기초한다. 추적 도메인은 예를 들어, 여기 도메인, 예를 들어, 신호가 AMR-WB 및 AMR-WB+([3GP12a], [3GP12b], [3GP09a], [3GP09b], [3GP09c]를 참조)에 기재된 바와 같이 LPC들(LPC= Linear Predictive Coefficient) 또는 ISP들(ISP= Immittance Spectral Pair)에 의해 표현되는 도메인일 수 있다. 단일 도메인에서 잡음 레벨을 추적하는 것은 특히, 신호가 제 1 도메인에서의 제 1 표현과 제 2 도메인에서의 제 2 표현 사이를 스위칭할 때(예를 들어, 신호 표현이 ACELP로부터 TCX로, 또는 그 반대로 스위칭할 때) 얼라이싱 효과가 회피되는 장점을 갖는다.
변환 유닛(120)에 관해, 제 2 오디오 신호 부분 자체, 또는 제 2 오디오 신호 부분으로부터 도출된 신호(예를 들어, 제 2 오디오 신호는 도출된 신호를 얻도록 처리되었다), 또는 제 2 오디오 신호 부분으로부터 도출된 값(예를 들어, 제 2 오디오 신호 부분은 도출된 값을 얻도록 처리되었다) 중 어느 하나가 변환된다.
제 1 오디오 신호 부분에 관해, 몇몇 실시예들에서, 제 1 오디오 신호 부분은 추적 도메인으로 처리 및/또는 변환될 수 있다.
하지만, 다른 실시예들에서, 제 1 오디오 신호 부분은 추적 도메인에서 미리 표현될 수 있다.
몇몇 실시예들에서, 제 1 신호 부분 정보는 제 1 오디오 신호 부분과 동일하다. 다른 실시예들에서, 제 1 신호 부분 정보는 예를 들어, 제 1 오디오 신호 부분에 따른 집합된 값이다.
이제, 처음으로, 안락 잡음 레벨로의 페이드-아웃이 더 구체적으로 고려된다.
기재된 페이드-아웃 접근법은 예를 들어, xHE-AAC[NMR+12](xHE-AAC=Extended High Efficiency AAC)의 저지연 버전으로 구현될 수 있고, 이것은 프레임 마다 ACELP(음성)과 MDCT(음악/잡음) 코딩 사이에서 끊임없이 스위칭할 수 있다.
매끄러운 페이드-아웃을 패킷 손실 동안 적절한 안락 잡음 레벨에 적용하도록 추적 도메인, 예를 들어, 여기 도메인에서 공통 레벨 추적에 관해, 그러한 안락 잡음 레벨은 정상 디코딩 프로세스 동안 식별될 필요가 있다. 예를 들어, 배경 잡음과 유사한 잡음 레벨이 가장 안락하다고 간주될 수 있다. 따라서, 배경 잡음 레벨이 도출될 수 있고, 정상 디코딩 동안 일정하게 업데이트될 수 있다.
본 발명은, 스위칭된 코어 코덱(예를 들어, ACELP 및 TCX)을 가질 때, 선택된 코어 코더와 독립적인 공통 배경 잡음 레벨을 고려하는 것이 특히 적합하다는 발견에 기초한다.
도 6은 에러 없는 동작 모드 동안, 예를 들어 정상 디코딩 동안, 디코더에서 바람직한 실시예에 따른 배경 잡음 레벨 추적을 도시한다.
추적 자체는 예를 들어, 최소 통계 접근법을 이용하여 수행될 수 있다([Mar01]을 참조).
이러한 추적된 배경 잡음 레벨은 예를 들어, 전술한 잡음 레벨 정보로서 고려될 수 있다.
예를 들어, 최소 통계 잡음 추정은 문헌에 제공된다: 라이너 마르틴(Rainer Martin)의, 최적의 평활화 및 최소 통계에 기초한 잡음 전력 스펙트럼 밀도 추정(Noise power spectral density estimation based on optimal smoothing and minimum statistics), IEEE Transactions on Audio Processing 9 (2001), no.5, 504-512"[Mar01]은 배경 잡음 레벨 추적을 위해 이용될 수 있다.
이에 대응하여, 몇몇 실시예들에서, 잡음 레벨 추적 유닛(130)은 최소 통계 접근법을 적용함으로써, 예를 들어, [Mar01]의 최소 통계 잡음 추정을 이용함으로써, 잡음 레벨 정보를 결정하도록 구성된다.
후속하여, 이러한 추적 접근법의 몇몇 고려사항들 및 세부사항들이 기재된다.
레벨 추정에 관해, 배경은 잡음-형이 되는 것으로 가정된다. 따라서, LPC에 의해 취득된 추적 전경(foreground) 음조 성분들을 피하기 위해 여기 도메인에서의 레벨 추적을 수행하는 것이 바람직하다. 예를 들어, ACELP 잡음 충진은 또한 여기 도메인에서의 배경 잡음 레벨을 이용할 수 있다. 여기 도메인에서의 추적을 통해, 배경 잡음 레벨의 하나의 단일 추적만이 2가지 목적들을 다룰 수 있고, 이것은 계산 복잡도를 절감한다. 바람직한 실시예에서, 추적은 ACELP 여기 도메인에서 수행된다.
도 7은 실시예에 따라 LPC 합성 및 디엠퍼시스의 이득 도출을 도시한다.
레벨 도출에 관해, 레벨 도출은 예를 들어, 시간 도메인 또는 여기 도메인, 또는 임의의 다른 적합한 도메인에서 수행될 수 있다. 레벨 도출 및 레벨 추적에 대한 도메인들이 상이하면, 예를 들어, 이득 보상이 필요할 수 있다.
바람직한 실시예에서, ACELP에 대한 레벨 도출은 여기 도메인에서 수행된다. 따라서, 이득 보상은 요구되지 않는다.
TCX에 대해, 이득 보상은 예를 들어, 도출된 레벨을 ACELP 여기 도메인으로 조정하는데 필요할 수 있다.
바람직한 실시예에서, TCX에 대한 레벨 도출은 시간 도메인에서 발생한다. 관리가능한 이득 보상은 이러한 접근법을 위해 발견되었다: LPC 합성 및 디엠퍼시스에 의해 도입된 이득은 도 7에 도시된 바와 같이 도출되고, 도출된 레벨은 이러한 이득으로 나누어진다.
대안적으로, TCX에 대한 레벨 도출은 TCX 여기 도메인에서 수행될 수 있다. 하지만, TCX 여기 도메인과 ACELP 여기 도메인 사이의 이득 보상은 너무 복잡한 것으로 간주되었다.
따라서, 도 1a로 다시 돌아가면, 몇몇 실시예들에서, 제 1 오디오 신호 부분은 제 1 시간 도메인으로서 시간 도메인에서 표현된다. 변환 유닛(120)은 제 2 오디오 신호 부분 또는 제 2 오디오 신호 부분으로부터 도출된 값을 제 2 도메인인 여기 도메인으로부터 추적 도메인인 시간 도메인으로 변환하도록 구성된다. 그러한 실시예들에서, 잡음 레벨 추적 유닛(130)은 추적 도메인으로서 시간 도메인에서 표현되는 제 1 신호 부분 정보를 수신하도록 구성된다. 더욱이, 잡음 레벨 추적 유닛(130)은 추적 도메인으로서 시간 도메인에서 표현되는 제 2 신호 부분을 수신하도록 구성된다.
다른 실시예들에서, 제 1 오디오 신호 부분은 제 1 도메인으로서 여기 도메인에서 표현된다. 변환 유닛(120)은 제 2 오디오 신호 부분 또는 제 2 오디오 신호 부분으로부터 도출된 값을 제 2 도메인인 시간 도메인으로부터 추적 도메인인 여기 도메인으로 변환하도록 구성된다. 그러한 실시예들에서, 잡음 레벨 추적 유닛(130)은 추적 도메인으로서 여기 도메인에서 표현되는 제 1 신호 부분 정보를 수신하도록 구성된다. 더욱이, 잡음 레벨 추적 유닛(130)은 추적 도메인으로서 여기 도메인에서 표현되는 제 2 신호 부분을 수신하도록 구성된다.
일실시예에서, 제 1 오디오 신호 부분은 예를 들어, 제 1 도메인으로서 여기 도메인에서 표현될 수 있고, 잡음 레벨 추적 유닛(130)은 예를 들어, 제 1 신호 부분 정보를 수신하도록 구성될 수 있고, 상기 제 1 신호 부분 정보는 추적 도메인인 FFT 도메인에서 표현되고, 상기 제 1 신호 부분 정보는 여기 도메인에서 표현되는 상기 제 1 오디오 신호 부분에 의존하고, 변환 유닛(120)은 예를 들어, 제 2 오디오 신호 부분 또는 제 2 오디오 신호 부분으로부터 도출된 값을 제 2 도메인인 시간 도메인으로부터 추적 도메인인 FFT 도메인으로 변환하도록 구성될 수 있고, 잡음 레벨 추적 유닛(130)은 예를 들어, FFT 도메인에서 표현되는 제 2 오디오 신호 부분을 수신하도록 구성될 수 있다.
도 1b는 다른 실시예에 따른 장치를 도시한다. 도 1b에서, 도 1a의 변환 유닛(120)은 제 1 변환 유닛(120)이고, 도 1a의 재구성 유닛(140)은 제 1 재구성 유닛(140)이다. 장치는 제 2 변환 유닛(121) 및 제 2 재구성 유닛(141)을 더 포함한다.
제 2 변환 유닛(121)은, 복수의 프레임들의 제 4 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 4 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 잡음 레벨 정보를 추적 도메인으로부터 제 2 도메인으로 변환하도록 구성된다.
더욱이, 제 2 재구성 유닛(141)은, 복수의 프레임들의 상기 제 4 프레임이 수신 인터페이스에 의해 수신되지 않으면, 또는 상기 제 4 프레임이 수신 인터페이스에 의해 수신되지만, 붕괴되면, 제 2 도메인에서 표현되는 잡음 레벨 정보에 따라 오디오 신호의 제 4 오디오 신호 부분을 재구성하도록 구성된다.
도 1c는 다른 실시예에 따라 오디오 신호를 디코딩하기 위한 장치를 도시한다. 장치는 제 1 오디오 신호 부분에 따라 제 1 집합된 값을 결정하기 위한 제 1 집합 유닛(150)을 더 포함한다. 더욱이, 도 1c의 장치는 제 2 오디오 신호 부분에 따라 제 2 오디오 신호 부분으로부터 도출된 값으로서 제 2 집합된 값을 결정하기 위한 제 2 집합 유닛(160)을 더 포함한다. 도 1c의 실시예에서, 잡음 레벨 추적 유닛(130)은 추적 도메인에서 표현되는 제 1 신호 부분 정보로서 제 1 집합된 값을 수신하도록 구성되고, 잡음 레벨 추적 유닛(130)은 추적 도메인에서 표현되는 제 2 신호 부분 정보로서 제 2 집합된 값을 수신하도록 구성된다. 잡음 레벨 추적 유닛(130)은 추적 도메인에서 표현되는 제 1 집합된 값에 따라, 그리고 추적 도메인에서 표현되는 제 2 집합된 값에 따라 잡음 레벨 정보를 결정하도록 구성된다.
실시예에서, 제 1 집합 유닛(150)은, 제 1 집합된 값이 제 1 오디오 신호 부분, 또는 제 1 오디오 신호 부분으로부터 도출된 신호의 제곱 평균 제곱근을 나타내도록 제 1 집합된 값을 결정하도록 구성된다. 더욱이, 제 2 집합 유닛(160)은, 제 2 집합된 값이 제 2 오디오 신호 부분, 또는 제 2 오디오 신호 부분으로부터 도출된 신호의 제곱 평균 제곱근을 나타내도록 제 2 집합된 값을 결정하도록 구성된다.
도 6은 추가 실시예에 따라 오디오 신호를 디코딩하기 위한 장치를 도시한다.
도 6에서, 배경 레벨 추적 유닛(630)은 도 1a에 따른 잡음 레벨 추적 유닛(130)을 구현한다.
더욱이, 도 6에서, RMS 유닛(650)(RMS = root mean square)은 제 1 집합 유닛이고, RMS 유닛(660)은 제 2 집합 유닛이다.
몇몇 실시예들에 따라, 도 1a, 도 1b 및 도 1c의 (제 1) 변환 유닛(120)은 제 2 오디오 신호 부분으로부터 도출된 값 상에 이득 값(x)을 적용함으로써, 예를 들어, 제 2 오디오 신호 부분으로부터 도출된 값을 이득 값(x)으로 나눔으로써, 제 2 오디오 신호 부분으로부터 도출된 값을 제 2 도메인으로부터 추적 도메인으로 변환하도록 구성된다. 다른 실시예들에서, 예를 들어, 이득 값이 곱해질 수 있다.
몇몇 실시예들에서, 이득 값(x)은 예를 들어, 선형 예측 코딩 합성에 의해 도입된 이득을 나타내거나, 이득 값(x)은 예를 들어, 선형 예측 코딩 합성 및 디엠퍼시스에 의해 도입된 이득을 나타낼 수 있다.
도 6에서, 유닛(622)은 선형 예측 코딩 합성 및 디엠퍼시스에 의해 도입된 이득을 나타내는 값(x)을 제공한다. 유닛(622)은 이후 제 2 오디오 신호 부분으로부터 도출된 값인 제 2 집합 유닛(660)에 의해 제공된 값을, 제공된 이득 값(x)으로 나눈다{예를 들어, x로 나눔으로써, 또는 값(1/x)과 곱함으로써}. 따라서, 유닛들(621 및 622)을 포함하는 도 6의 유닛(620)은 도 1a, 도 1b 또는 도 1c의 제 1 변환 유닛을 구현한다.
도 6의 장치는 제 1 오디오 신호 부분을 갖는 제 1 프레임을 수신하고, 제 1 오디오 신호 부분은 유성음 여기 및/또는 무성음 여기이고, 추적 도메인, 도 6에서는 (ACELP) LPC 도메인에서 표현된다. 제 1 오디오 신호 부분은 시간-도메인 제 1 오디오 신호 부분 출력을 얻기 위해 처리하기 위한 LPC 합성 및 디엠퍼시스 유닛(671)에 공급된다. 더욱이, 제 1 오디오 신호 부분은 제 1 오디오 신호 부분의 제곱 평균 제곱근을 나타내는 제 1 값을 얻기 위해 RMS 모듈(650)에 공급된다. 이러한 제 1 값(제 1 RMS 값)은 추적 도메인에서 표현된다. 그 후에, 추적 도메인에서 표현되는 제 1 RMS 값은 잡음 레벨 추적 유닛(630)에 공급된다.
더욱이, 도 6의 장치는 제 2 오디오 신호 부분을 갖는 제 2 프레임을 수신하고, 제 2 오디오 신호 부분은 MDCT 스펙트럼을 포함하고, MDCT 도메인에서 표현된다. 잡음 충진(noise filling)은 잡음 충진 모듈(681)에 의해 수행되고, 주파수-도메인 잡음 성형은 주파수-도메인 잡음 성형 모듈(682)에 의해 수행되고, 시간 도메인으로의 변환은 iMDCT/OLA 모듈(683)(OLA = overlap-add)에 의해 수행되고, 장기간 예측은 장기간 예측 유닛(684)에 의해 수행된다. 장기간 예측 유닛은 예를 들어, 지연 버퍼(도 6에서는 미도시)를 포함할 수 있다.
제 2 오디오 신호 부분으로부터 도출된 신호는 이 후 제 2 오디오 신호 부분으로부터 도출된 그러한 신호의 제곱 평균 제곱근을 나타내는 제 2 값을 얻기 위해 RMS 모듈(660)에 공급된다. 이러한 제 2 값(제 2 RMS 값)은 여전히 시간 도메인에서 표현된다. 유닛(620)은 이 후 제 2 RMS 값을 시간 도메인으로부터 추적 도메인, 여기서 (ACELP) LPC 도메인으로 변환한다. 추적 도메인에서 표현되는 제 2 RMS 값은 이 후 잡음 레벨 추적 유닛(630)에 공급된다.
실시예들에서, 레벨 추적은 여기 도메인에서 수행되지만, TCX 페이드-아웃은 시간 도메인에서 수행된다.
정상 디코딩 동안, 배경 잡음 레벨이 추적되는 반면, 예를 들어, 마지막으로 수신된 신호는 레벨 방식으로 매끄럽게 페이딩되는 적절한 안락 잡음 레벨의 표시자로서 패킷 손실 동안 사용될 수 있다.
레벨 페이드-아웃을 추적하고 적용하기 위해 레벨을 도출하는 것은 일반적으로 서로 독립적이고, 상이한 도메인들에서 수행될 수 있다. 바람직한 실시예에서, 레벨 적용은 레벨 도출과 동일한 도메인들에서 수행되어, 이것은 ACELP에 대해 이득 보상이 필요하지 않고, TCX에 대해, 레벨 도출(도 6을 참조)에 대해 역 이득 보상이 필요하여, 동일한 이득 도출이 도 7에 도시된 바와 같이 이용될 수 있다는 동일한 이점들을 초래한다.
다음에서, 실시예들에 따라 LPC 합성 이득에 대한 고역 통과 필터의 영향의 보상이 기재된다.
도 8은 이러한 접근법을 개술한다. 특히, 도 8은 패킷 손실 동안 안락 잡음 레벨 적용을 도시한다.
도 8에서, 고역 통과 이득 필터 유닛(643), 곱셈 유닛(644), 페이딩 유닛(645), 고역 통과 필터 유닛(646), 페이딩 유닛(647), 및 조합 유닛(648)은 함께 제 1 재구성 유닛을 형성한다.
더욱이, 도 8에서, 배경 레벨 제공 유닛(631)은 잡음 레벨 정보를 제공한다. 예를 들어, 배경 레벨 제공 유닛(631)은 도 6의 배경 레벨 추적 유닛(630)으로서 동일하게 구현될 수 있다.
더욱이, 도 8에서, LPC 합성 및 디엠퍼시스 이득 유닛(649) 및 곱셈 유닛(641)은 함께 제 2 변환 유닛(630)을 형성한다.
더욱이, 도 8에서, 페이딩 유닛(642)은 제 2 재구성 유닛을 나타낸다.
도 8의 실시예에서, 유성음 및 무성음 여기는 개별적으로 페이딩된다: 유성음 여기는 0으로 페이딩되지만, 무성음 여기는 안락 잡음 레벨쪽으로 페이딩된다. 도 8은 고역 통과 필터를 추가로 도시하고, 이러한 고역 통과 필터는, 신호가 무성음으로서 분류될 때를 제외하고 모든 경우들에 대해 저주파수 성분들을 억제하기 위해 무성음 여기의 신호 체인(chain)에 도입된다.
고역 통과 필터의 영향을 모델링하는 것에 관해, LPC 합성 및 디엠퍼시스 이후의 레벨은 한번은 고역 통과 필터를 가지고 계산되고, 한번은 고역 통과 필터 없이 계산된다. 후속하여, 이들 2가지 레벨들의 비율은 적용된 배경 레벨을 변경하도록 도출되고 이용된다.
이것은 도 9에 의해 도시된다. 특히, 도 9는 실시예에 따라 ACELP 은닉 동안 진보된 고역 통과 이득 보상을 도시한다.
현재 여기 신호 대신에, 단지 간단한 임펄스는 이러한 계산을 위한 입력으로서 사용된다. 이것은 감소된 복잡도를 허용하는데, 이는 임펄스 응답이 빠르게 감쇠되고, 짧은 시간 프레임 상에서 RMS 도출이 수행될 수 있기 때문이다. 사실상, 전체 프레임 대신에 단지 하나의 서브프레임이 사용된다.
실시예에 따라, 잡음 레벨 추적 유닛(130)은 잡음 레벨 정보로서 안락 잡음 레벨을 결정하도록 구성된다. 재구성 유닛(140)은, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스(110)에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스(110)에 의해 수신되지만, 붕괴되면, 잡음 레벨 정보에 따라 제 3 오디오 신호 부분을 재구성하도록 구성된다.
실시예에 따라, 잡음 레벨 추적 유닛(130)은 잡음 레벨 정보로서 안락 잡음 레벨을 결정하도록 구성된다. 재구성 유닛(140)은, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스(110)에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스(110)에 의해 수신되지만, 붕괴되면, 잡음 레벨 정보에 따라 제 3 오디오 신호 부분을 재구성하도록 구성된다.
실시예에서, 잡음 레벨 추적 유닛(130)은 잡음 레벨 스펙트럼으로부터 도출된 잡음 레벨 정보로서 안락 잡음 레벨을 결정하도록 구성되고, 상기 잡음 레벨 스펙트럼은 최소 통계 접근법을 적용함으로써 얻어진다. 재구성 유닛(140)은, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스(110)에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스(110)에 의해 수신되지만, 붕괴되면, 복수의 선형 예측 계수들에 따라 제 3 오디오 신호 부분을 재구성하도록 구성된다.
실시예에서, (제 1 및/또는 제 2) 재구성 유닛(140, 141)은 예를 들어, 복수의 프레임들의 상기 제 3(제 4) 프레임이 수신 인터페이스(110)에 의해 수신되지 않으면, 또는 상기 제 3(제 4) 프레임이 수신 인터페이스(110)에 의해 수신되지만, 붕괴되면, 잡음 레벨 정보에 따라, 그리고 제 1 오디오 신호 부분에 따라, 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다.
실시예에 따라, (제 1 및/또는 제 2) 재구성 유닛(140, 141)은 예를 들어, 제 1 오디오 신호 부분을 감쇄 및/또는 증폭함으로써 제 3(또는 제 4) 오디오 신호 부분을 재구성하도록 구성될 수 있다.
도 14는 오디오 신호를 디코딩하기 위한 장치를 도시한다. 장치는 수신 인터페이스(110)를 포함하고, 수신 인터페이스(110)는 오디오 신호의 제 1 오디오 신호 부분을 포함하는 제 1 프레임을 수신하도록 구성되고, 수신 인터페이스(110)는 오디오 신호의 제 2 오디오 신호 부분을 포함하는 제 2 프레임을 수신하도록 구성된다.
더욱이, 장치는 잡음 레벨 추적 유닛(130)을 포함하고, 잡음 레벨 추적 유닛(130)은 제 1 오디오 신호 부분 및 제 2 오디오 신호 부분 중 적어도 하나에 따라(이것은 제 1 오디오 신호 부분 및/또는 제 2 오디오 신호 부분에 따른다는 것을 의미한다) 잡음 레벨 정보를 결정하도록 구성되고, 잡음 레벨 정보는 추적 도메인에서 표현된다.
더욱이, 장치는 제 1 재구성 도메인에서, 복수의 프레임들의 제 3 프레임이 수신 인터페이스(110)에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스(110)에 의해 수신되지만, 붕괴되면, 잡음 정보 레벨에 따라 오디오 신호의 제 3 오디오 신호 부분을 재구성하기 위한 제 1 재구성 유닛(140)을 포함하고, 제 1 재구성 도메인은 추적 도메인과 상이하거나 동일하다.
더욱이, 장치는, 복수의 프레임들의 제 4 프레임이 수신 인터페이스(110)에 의해 수신되지 않으면, 또는 상기 제 4 프레임이 수신 인터페이스(110)에 의해 수신되지만, 붕괴되면, 잡음 레벨 정보를 추적 도메인으로부터 제 2 재구성 도메인으로 변환하기 위한 변환 유닛(121)을 포함하고, 제 2 재구성 도메인은 추적 도메인과 상이하고, 제 2 재구성 도메인은 제 1 재구성 도메인과 상이하고,
더욱이, 장치는 제 2 재구성 도메인에서, 복수의 프레임들의 상기 제 4 프레임이 수신 인터페이스(110)에 의해 수신되지 않으면, 또는 상기 제 4 프레임이 수신 인터페이스(110)에 의해 수신되지만, 붕괴되면, 제 2 재구성 도메인에서 표현되는 잡음 레벨 정보에 따라 오디오 신호의 제 4 오디오 신호 부분을 재구성하기 위한 제 2 재구성 유닛(141)을 포함한다.
몇몇 실시예들에 따라, 추적 도메인은 예를 들어, 추적 도메인이 시간 도메인, 스펙트럼 도메인, FFT 도메인, MDCT 도메인, 또는 여기 도메인이 되도록 이루어질 수 있다. 제 1 재구성 도메인은 예를 들어, 시간 도메인, 스펙트럼 도메인, FFT 도메인, MDCT 도메인, 또는 여기 도메인일 수 있다. 제 2 재구성 도메인은 예를 들어, 시간 도메인, 스펙트럼 도메인, FFT 도메인, MDCT 도메인, 또는 여기 도메인일 수 있다.
실시예에서, 추적 도메인은 예를 들어, FFT 도메인일 수 있고, 제 1 재구성 도메인은 예를 들어, 시간 도메인일 수 있고, 제 2 재구성 도메인은 예를 들어, 여기 도메인일 수 있다.
다른 실시예에서, 추적 도메인은 예를 들어, 시간 도메인일 수 있고, 제 1 재구성 도메인은 예를 들어, 시간 도메인일 수 있고, 제 2 재구성 도메인은 예를 들어, 여기 도메인일 수 있다.
실시예에 따라, 상기 제 1 오디오 신호 부분은 예를 들어, 제 1 입력 도메인에서 표현될 수 있고, 상기 제 2 오디오 신호 부분은 예를 들어, 제 2 입력 도메인에서 표현될 수 있다. 변환 유닛은 예를 들어, 제 2 변환 유닛일 수 있다. 장치는 예를 들어, 제 2 신호 부분 정보를 얻기 위해 제 2 오디오 신호 부분 또는 제 2 오디오 신호 부분으로부터 도출된 값 또는 신호를 제 2 입력 도메인으로부터 추적 도메인으로 변환하기 위한 제 1 변환 유닛을 더 포함할 수 있다. 잡음 레벨 추적 유닛은 예를 들어, 추적 도메인에서 표현되는 제 1 신호 부분 정보를 수신하도록 구성될 수 있고, 제 1 신호 부분 정보는 제 1 오디오 신호 부분에 의존하고, 잡음 레벨 추적 유닛은 추적 도메인에서 표현되는 제 2 신호 부분을 수신하도록 구성되고, 잡음 레벨 추적 유닛은 추적 도메인에서 표현되는 제 1 신호 부분 정보에 따라, 그리고 추적 도메인에서 표현되는 제 2 신호 부분 정보에 따라 잡음 레벨 정보를 결정하도록 구성된다.
실시예에 따라, 제 1 입력 도메인은 예를 들어, 여기 도메인일 수 있고, 제 2 입력 도메인은 예를 들어, MDCT 도메인일 수 있다.
다른 실시예에서, 제 1 입력 도메인은 예를 들어, MDCT 도메인일 수 있고, 제 2 입력 도메인은 예를 들어, MDCT 도메인일 수 있다.
예를 들어, 신호가 시간 도메인에서 표현되면, 이것은 예를 들어, 신호의 시간 도메인 샘플들에 의해 표현될 수 있다. 또는, 예를 들어, 신호가 스펙트럼 도메인에서 표현되면, 이것은 예를 들어, 신호의 스펙트럼의 스펙트럼 샘플들에 의해 표현될 수 있다.
실시예에서, 추적 도메인은 예를 들어, FFT 도메인일 수 있고, 제 1 재구성 도메인은 예를 들어, 시간 도메인일 수 있고, 제 2 재구성 도메인은 예를 들어, 여기 도메인일 수 있다.
다른 실시예에서, 추적 도메인은 예를 들어, 시간 도메인일 수 있고, 제 1 재구성 도메인은 예를 들어, 시간 도메인일 수 있고, 제 2 재구성 도메인은 예를 들어, 여기 도메인일 수 있다.
몇몇 실시예들에서, 도 14에 도시된 유닛들은 예를 들어, 도 1a, 도 1b, 도 1c 및 도 1d에 대해 기재된 바와 같이 구성될 수 있다.
특정 실시예들에 관해, 예를 들어 저 비율 모드에서, 실시예에 따른 장치는 예를 들어, 입력으로서 ACELP 프레임들을 수신할 수 있고, 이러한 ACELP 프레임들은 여기 도메인에서 표현되고, 그 후에 LPC 합성을 통해 시간 도메인으로 변환된다. 더욱이, 저 비율 모드에서, 실시예에 따른 장치는 예를 들어, 입력으로서 TCX 프레임들을 수신할 수 있고, 이러한 TCX 프레임들은 MDCT 도메인에서 표현되고, 그 후에 역 MDCT를 통해 시간 도메인으로 변환된다.
추적은 이 후 FFT-도메인에서 수행되고, 여기서 FFT 신호는 FFT(Fast Fourier Transform)를 수행함으로써 시간 도메인 신호로부터 도출된다. 추적은 예를 들어, 안락 잡음 스펙트럼을 얻기 위해 모든 스펙트럼 라인들에 대해 개별적적인 최소 통계 접근법을 수행함으로써 수행될 수 있다.
은닉은 이 후 안락 잡음 스펙트럼에 기초하여 레벨 도출을 수행함으로써 수행된다. 레벨 도출은 안락 잡음 스펙트럼에 기초하여 수행된다. 시간 도메인으로의 레벨 변환은 FD TCX PLC에 대해 수행된다. 시간 도메인에서의 페이딩이 수행된다. 여기 도메인으로의 레벨 도출은 ACELP PLC 및 TD TCX PLC(ACELP 형)에 대해 수행된다. 여기 도메인에서의 페이딩은 이 후 수행된다.
다음의 목록은 이것을 요약한다:
저 비율:
- 입력:
- acelp(lpc 합성을 통해, 여기 도메인 -> 시간 도메인)
- tcx(역 MDCT를 통해, mdct 도메인 -> 시간 도메인)
- 추적:
- FFT를 통해 시간 도메인으로부터 도출된 fft-도메인
- 모든 스펙트럼 라인들에 대해 개별적인 최소 통계 -> 안락 잡음 스펙트럼
- 은닉:
- 안락 잡음 스펙트럼에 기초한 레벨 도출
- 시간 변환으로의 레벨 변환으로서, 이것은
- FD TCX PLC
-> 시간 도메인에서의 페이딩을 위한 것이고,
- 여기 도메인으로의 레벨 변환으로서, 이것은
- ACELP PLC
- TD TCX PLC (ACELP 형)
-> 여기 도메인에서의 페이딩을 위한 것이다.
예를 들어, 고 비율 모드에서, 예를 들어, 입력으로서 TCX 프레임들을 수신할 수 있고, 이러한 TCX 프레임들은 MDCT 도메인에서 표현되고, 이 후 역 MDCT를 통해 시간 도메인으로 변환된다.
추적은 이 후 시간 도메인에서 수행될 수 있다. 추적은 예를 들어, 안락 잡음 레벨을 획득하기 위해 에너지 레벨에 기초하여 최소 통계 접근법을 수행함으로써 수행될 수 있다.
은닉에 대해, FD TCX PLC에 대해, 레벨은 그 상태로 사용될 수 있고, 시간 도메인에서의 페이딩만이 수행될 수 있다. TD TCX PLC(ACELP 형)에 대해, 여기 도메인으로의 레벨 변환 및 여기 도메인에서의 페이딩이 수행된다.
다음 목록은 이것을 요약한다:
고 비율:
- 입력:
- tcx (역 MDCT를 통해, mdct 도메인 -> 시간 도메인)
- 추적:
- 시간-도메인
- 에너지 레벨에 대한 최소 통계 -> 안락 잡음 레벨
- 은닉:
- 레벨 사용 "그 자체로(as is)"
- FD TCX PLC
-> 시간 도메인에서의 페이딩
- 여기 도메인으로의 레벨 변환으로서, 이것은
- TD TCX PLC(ACELP 형)
-> 여기 도메인에서의 페이딩을 위한 것이다.
FFT 도메인 및 MDCT 도메인 모두는 특수 도메인들인 반면, 여기 도메인은 몇몇 종류의 시간 도메인이다.
실시예에 따라, 제 1 재구성 유닛(140)은 예를 들어, 잡음형 스펙트럼으로의 제 1 페이딩을 수행함으로써 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다. 제 2 재구성 유닛(141)은 예를 들어, 잡음형 스펙트럼으로의 제 2 페이딩 및/또는 LTP 이득의 제 2 페이딩을 수행함으로써 제 4 오디오 신호 부분을 재구성하도록 구성될 수 있다. 더욱이, 제 1 재구성 유닛(140) 및 제 2 재구성 유닛(141)은 예를 들어, 잡음형 스펙트럼으로의 제 1 페이딩 및 제 2 페이딩 및/또는 LTP 이득의 제 2 페이딩을 동일한 페이딩 속도로 수행하도록 구성될 수 있다.
이제 안락 잡음의 적응형 스펙트럼 성형이 고려된다.
제 1 단계로서, 버스트 패킷 손실 동안 안락 잡음에 대한 적응형 성형을 달성하기 위해, 배경 잡음을 나타내는 적절한 LPC 계수들을 찾는 것이 수행될 수 있다. 이들 LPC 계수들은, 배경 잡음 스펙트럼을 발견하고, 그런 후에 문헌으로부터 알려진 LPC 도출을 위한 임의의 알고리즘을 이용함으로써 그로부터 LPC 계수들을 계산하기 위해 최소 통계 접근법을 이용하여 활성 음성 동안 도출될 수 있다. 예를 들어, 몇몇 실시예들은 배경 잡음 스펙트럼을, MDCT 도메인에서 FDNS에 대해 직접 사용될 수 있는 표현으로 직접 변환할 수 있다.
안락 잡음으로의 페이딩은 ISF 도메인에서 이루어질 수 있다(또한, LSF 도메인에서 적용가능함; LSF 라인 스펙트럼 주파수):
Figure pct00045
이것은 pt mean 을, 안락 잡음을 기재하는 적절한 LP 계수들로 설정함으로써 이루어진다.
안락 잡음의 전술한 적응형 스펙트럼 성형에 관해, 더 일반적인 실시예가 도 11에 도시된다.
도 11은 실시예에 따라 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치를 도시한다.
장치는 하나 이상의 프레임들을 위한 수신 인터페이스(110), 계수 생성기(1120), 및 신호 재구성기(1130)를 포함한다.
계수 생성기(1120)는, 하나 이상의 프레임들의 현재 프레임이 수신 인터페이스(1110)에 의해 수신되면, 그리고 수신 인터페이스(1110)에 의해 수신되는 현재 프레임이 붕괴되지 않으면/에러가 없으면, 현재 프레임에 의해 포함되는 하나 이상의 제 1 오디오 신호 계수들을 결정하도록 구성되고, 상기 하나 이상의 제 1 오디오 신호 계수들은 인코딩된 오디오 신호의 특징을 나타내고, 하나 이상의 오디오 계수들은 인코딩된 오디오 신호의 배경 잡음을 나타낸다. 더욱이, 계수 생성기(1120)는, 현재 프레임이 수신 인터페이스(1110)에 의해 수신되지 않으면, 또는 수신 인터페이스(1110)에 의해 수신되는 현재 프레임이 붕괴되면/에러가 있으면, 하나 이상의 제 1 오디오 신호 계수들에 따라, 그리고 하나 이상의 잡음 계수들에 따라, 하나 이상의 제 2 오디오 신호 계수들을 생성하도록 구성된다.
오디오 신호 재구성기(1130)는, 현재 프레임이 수신 인터페이스(1110)에 의해 수신되면, 그리고 수신 인터페이스(1110)에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 하나 이상의 제 1 오디오 신호 계수들에 따라 재구성된 오디오 신호의 제 1 부분을 재구성하도록 구성된다. 더욱이, 오디오 신호 재구성기(1130)는, 현재 프레임이 수신 인터페이스(1110)에 의해 수신되지 않으면, 또는 수신 인터페이스(1110)에 의해 수신되는 현재 프레임이 붕괴되면, 하나 이상의 오디오 신호 계수들에 따라 재구성된 오디오 신호의 제 2 부분을 재구성하도록 구성된다.
배경 잡음을 결정하는 것은 종래 기술에 잘 알려져 있다(예를 들어, [Mar01]을 참조): 라이너 마르틴(Rainer Martin)의, 최적의 평활화 및 최소 통계에 기초한 잡음 전력 스펙트럼 밀도 추정(Noise power spectral density estimation based on optimal smoothing and minimum statistics), IEEE Transactions on Audio Processing 9 (2001), no.5, 504-512, 실시예에서, 장치는 이에 따라 진행된다.
몇몇 실시예들에서, 하나 이상의 제 1 오디오 신호 계수들은 예를 들어, 인코딩된 오디오 신호의 하나 이상의 선형 예측 필터 계수들일 수 있다. 몇몇 실시예들에서, 하나 이상의 제 1 오디오 신호 계수들은 예를 들어, 인코딩된 오디오 신호의 하나 이상의 선형 예측 필터 계수들일 수 있다.
선형 예측 필터 계수들로부터 또는 이미턴스 스펙트럼 쌍들로부터 오디오 신호, 예를 들어, 음성 신호를 재구성하는 방법이 종래 기술에 잘 알려져 있고(예를 들어, [3GP09c]: 음성 코덱 음성 처리 기능들; 적응형 멀티-레이트 - 광역 (AMRWB) 음성 코덱; 트랜스코딩 기능들, 3GPP TS 26.190, 3세대 파트너쉽 프로젝트, 2009를 참조), 실시예에서, 신호 재구성기는 이에 따라 진행된다.
실시예에 따라, 하나 이상의 잡음 계수들은 예를 들어, 인코딩된 오디오 신호의 배경 잡음을 나타내는 하나 이상의 선형 예측 필터 계수들일 수 있다. 실시예에서, 하나 이상의 선형 예측 필터 계수들은 예를 들어, 배경 잡음의 스펙트럼 형태를 나타낼 수 있다.
실시예에서, 계수 생성기(1120)는 예를 들어, 하나 이상의 제 2 오디오 신호 부분들이 재구성된 오디오 신호의 하나 이상의 선형 예측 필터 계수들이 되거나, 하나 이상의 제 1 오디오 신호 계수들이 재구성된 오디오 신호의 하나 이상의 이미턴스 스펙트럼 쌍들이 되도록 하나 이상의 오디오 신호 부분들을 결정하도록 구성될 수 있다.
실시예에 따라, 계수 생성기(1120)는 예를 들어, 수학식
Figure pct00046
을 적용함으로써 하나 이상의 제 2 오디오 신호 계수들을 생성하도록 구성될 수 있고,
여기서 f current [i]는 하나 이상의 제 2 오디오 신호 계수들 중 하나를 나타내고, f last [i]는 하나 이상의 제 1 오디오 신호 계수들 중 하나를 나타내고, pt mean [i]는 하나 이상의 잡음 계수들 중 하나이고, α는 0 ≤α≤1을 갖는 실수이고, I는 인덱스이다.
실시예에 따라, f last [i]는 인코딩된 오디오 신호의 선형 예측 필터 계수를 나타내고, f current [i]는 재구성된 오디오 신호의 선형 예측 필터 계수를 나타낸다.
실시예에서, pt mean [i]는 예를 들어, 인코딩된 오디오 신호의 배경 잡음을 나타내는 선형 예측 필터 계수일 수 있다.
실시예에 따라, 계수 생성기(1120)는 예를 들어, 하나 이상의 제 2 오디오 신호 계수들로서 적어도 10개의 제 2 오디오 신호 계수들을 생성하도록 구성될 수 있다.
실시예에서, 계수 생성기(1120)는 예를 들어, 하나 이상의 프레임들의 현재 프레임이 수신 인터페이스(1110)에 의해 수신되면, 그리고 수신 인터페이스(1110)에 의해 수신된 현재 프레임이 붕괴되지 않으면, 인코딩된 오디오 신호의 잡음 스펙트럼을 결정함으로써 하나 이상의 잡음 계수들을 결정하도록 구성될 수 있다.
다음에서, FDNS 적용 이전에 MDCT 스펙트럼을 백색 잡음으로 페이딩하는 것이 고려된다.
MDCT 빈의 부호를 무작위로 변형(부호 스크램블링)하는 것 대신에, 완전한 스펙트럼은 FDNS를 이용하여 성형되는 백색 잡음으로 충진된다. 스펙트럼 특징들에서의 순간적인 변화를 회피하기 위해, 부호 스크램블링과 잡음 충진 사이의 교차-페이드(cross-fade)가 적용된다. 교차 페이드는 다음과 같이 실현될 수 있다:
for (i=0; i<L_frame; i++) {
if (old_x[i] !=0) {
x[i] = (i - cum_damping)*noise[i] + cum_damping *
random_sign() * x_old[i];
}
}
여기서:
cum_damping은 (절대) 감쇄 인자이고 - 1에서 시작하여 0쪽으로 감소하여, 프레임마다 감소하고
x_old는 마지막으로 수신된 프레임의 스펙트럼이고
random_sign은 1 또는 -1로 리턴하고
noise는, 이차 평균(RMS)이 마지막으로 양호한 스펙트럼과 유사하도록 스케일링되는 확률 벡터(백색 잡음)를 포함한다.
용어 random_sing()*old_x[i]는 위상들을 무작위화하고, 고조파 반복들을 피하기 위해 부호-스크램블링 프로세스를 특징으로 한다.
후속하여, 에너지 레벨의 다른 정규화는, 합산 에너지가 2개의 벡터들의 상관으로 인해 편향하지 않는 것을 확인하기 위해 교차-페이드 이후에 수행될 수 있다.
실시예들에 따라, 제 1 재구성 유닛(140)은 예를 들어, 잡음 레벨 정보에 따라 그리고 제 1 오디오 신호 부분에 따라 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다. 특정 실시예에서, 제 1 재구성 유닛(140)은 예를 들어, 제 1 오디오 신호 부분을 감쇄 또는 증폭함으로써 제 3 오디오 신호 부분을 재구성하도록 구성될 수 있다.
몇몇 실시예들에서, 제 2 재구성 유닛(141)은 예를 들어, 잡음 레벨 정보에 따라 그리고 제 2 오디오 신호 부분에 따라 제 4 오디오 신호 부분을 재구성하도록 구성될 수 있다. 특정 실시예에서, 제 2 재구성 유닛(141)은 예를 들어, 제 2 오디오 신호 부분을 감쇄 또는 증폭함으로써 제 4 오디오 신호 부분을 재구성하도록 구성될 수 있다.
FDNS 적용 이전에 백색 잡음으로의 MDCT 스펙트럼의 전술한 페이딩에 관해, 더 일반적인 실시예는 도 12에 의해 도시된다.
도 12는 실시예에 따라 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치를 도시한다.
장치는 인코딩된 오디오 신호의 오디오 신호 스펙트럼의 복수의 오디오 신호 샘플들에 대한 정보를 포함하는 하나 이상의 프레임들을 수신하기 위한 수신 인터페이스(1210)와, 재구성된 오디오 신호를 생성하기 위한 프로세서(1220)를 포함한다.
프로세서(1220)는, 현재 프레임이 수신 인터페이스(1210)에 의해 수신되지 않으면, 또는 현재 프레임이 수신 인터페이스(1210)에 의해 수신되지만, 붕괴되면, 변형된 스펙트럼을 목표 스펙트럼으로 페이딩함으로써 재구성된 오디오 신호를 생성하도록 구성되고, 변형된 스펙트럼은 복수의 변형된 신호 샘플들을 포함하고, 변형된 스펙트럼의 변형된 신호 샘플들 각각에 대해, 상기 변형된 신호 샘플의 절대값은 오디오 신호 스펙트럼의 오디오 신호 샘플들 중 하나의 오디오 신호 샘플의 절대값과 동일하다.
더욱이, 프로세서(1220)는, 하나 이상의 프레임들의 현재 프레임이 수신 인터페이스(1210)에 의해 수신되면, 그리고 수신 인터페이스(1210)에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 변형된 스펙트럼을 목표 스펙트럼으로 페이딩하지 않도록 구성된다.
실시예에 따라, 목표 스펙트럼은 잡음형 스펙트럼이다.
실시예에 따라, 잡음형 스펙트럼은 백색 잡음을 나타낸다.
실시예에 따라, 잡음형 스펙트럼은 성형된다.
실시예에서, 잡음형 스펙트럼의 형태는 이전에 수신된 신호의 오디오 신호 스펙트럼에 의존한다.
실시예에 따라, 잡음형 스펙트럼은 오디오 신호 스펙트럼의 형태에 따라 성형된다.
실시예에서, 프로세서(1220)는 잡음형 스펙트럼을 성형하기 위해 경사 인자를 이용한다.
실시예에 따라, 프로세서(1220)는 수학식 shaped_noise[i] = noise * power(tilt_factor, i/N)을 이용하고,
여기서 N은 샘플들의 개수를 나타내고,
i는 인덱스이고,
tilt_factor > 0인 상태에서, 0 <= i <N이고,
power는 멱함수이다.
tilt_factor가 1보다 작으면, 이것은 증가하는 i를 갖는 감쇄를 의미한다. tilt_factor가 1보다 크면, 이것은 증가하는 i를 갖는 증폭을 의미한다.
다른 실시예에 따라, 프로세서(1220)는 수학식 shaped_noise[i] = noise * (1 + i / (N-1) * (tilt_factor-1))를 이용할 수 있고,
여기서 N은 샘플들의 개수를 나타내고,
i는 인덱스이고, tilt_factor >0인 상태에서, 0 <=i <N이다.
실시예에 따라, 프로세서(1220)는, 현재 프레임이 수신 인터페이스(1210)에 의해 수신되지 않으면, 또는 수신 인터페이스(1210)에 의해 수신되는 현재 프레임이 붕괴되면, 오디오 신호 스펙트럼의 하나 이상의 오디오 신호 샘플들의 부호를 변화시킴으로써 변형된 스펙트럼을 생성하도록 구성된다.
실시예에서, 오디오 신호 스펙트럼의 오디오 신호 샘플들 각각은 실수에 의해 표현되지만, 허수에 의해 표현되지 않는다.
실시예에 따라, 오디오 신호 스펙트럼의 오디오 신호 샘플들은 변형된 이산 코사인 변환 도메인에서 표현된다.
다른 실시예에 따라, 오디오 신호 스펙트럼의 오디오 신호 샘플들은 변형된 이산 사인 변환 도메인에서 표현된다.
실시예에 따라, 프로세서(1220)는 제 1 또는 제 2 값을 무작위로 또는 의사-무작위로 출력하는 랜덤 부호 함수를 이용함으로써 변형된 스펙트럼을 생성하도록 구성된다.
실시예에서, 프로세서(1220)는 후속하여 감쇄 인자를 감소시킴으로써 변형된 스펙트럼을 목표 스펙트럼에 페이딩하도록 구성된다.
실시예에 따라, 프로세서(1220)는 후속하여 감쇄 인자를 증가시킴으로써 변형된 스펙트럼을 목표 스펙트럼에 페이딩하도록 구성된다.
실시예에서, 현재 프레임이 수신 인터페이스(1210)에 의해 수신되지 않으면, 또는 수신 인터페이스(1210)에 의해 수신되는 현재 프레임이 붕괴되면, 프로세서(1220)는 수학식 x[i] = (1-cum_damping) * noise[i] + cum_damping * random_sign() * x_old[i]을 이용함으로써 재구성된 오디오 신호를 생성하도록 구성되고,
여기서 i는 인덱스이고, x[i]는 재구성된 오디오 신호의 샘플을 나타내고, cum_damping은 감쇄 인자이고, x_old[i]는 인코딩된 오디오 신호의 오디오 신호 스펙트럼의 오디오 신호 샘플들 중 하나를 나타내고, random_sign()은 1 또는 -1로 리턴하고, noise는 목표 스펙트럼을 나타내는 확률 벡터이다.
몇몇 실시예들은 TCX LTP 동작을 계속한다. 이들 실시예들에서, TCX LTP 동작은 마지막으로 양호한 프레임으로부터 도출된 LTP 파라미터들(LTP 래그 및 LTP 이득)을 이용한 은닉 동안 계속된다.
LTP 동작들은 다음과 같이 요약될 수 있다:
- 이전에 도출된 출력에 기초하여 LTP 지연 버퍼를 공급.
- LTP 래그에 기초: 현재 신호를 성형하기 위해 LTP 기여로서 사용되는 LTP 지연 버퍼로부터 적절한 신호 부분을 선택.
- LTP 이득을 이용하여 이러한 LTP 기여를 재스케일링.
- LTP 출력 신호를 생성하기 위해 LTP 입력 신호에 이러한 재스케일링된 LTP 기여를 추가.
상이한 접근법들은 LTP 지연 버퍼 업데이트가 수행될 때의 시간에 관해 고려될 수 있다:
마지막 프레임(n-1)으로부터의 출력을 이용하여 프레임(n)에서의 제 1 LTP 동작으로서. 이것은 프레임(n)에서의 LTP 처리 동안 사용될 프레임(n)에서의 LTP 지연 버퍼를 업데이트한다.
현재 프레임(n)으로부터의 출력을 이용하여 프레임(n)에서의 마지막 LTP 동작으로서. 이것은 프레임(n+1)에서의 LTP 처리 동안 사용될 프레임(n)에서의 LTP 지연 버퍼를 업데이트한다.
다음에서, TCX LTP 피드백 루프의 결합 해제가 고려된다.
TCX LTP 피드백 루프의 결합 해제는 은닉 모드에 있을 때 LTP 디코더의 각 피드백 루프 동안 추가 잡음(LTP 입력 신호에 적용된 잡음 교체로부터 초래됨)의 도입을 회피한다.
도 10은 이러한 결합 해제를 도시한다. 특히, 도 10은 은닉(bfi=1) 동안 LTP 피드백 루프의 결합 해제를 도시한다.
도 10은 지연 버퍼(1020), 샘플 선택기(1030), 및 샘플 프로세서(1040){샘플 프로세서(1040)는 점선으로 표시됨}를 도시한다.
LTP 지연 버퍼(1020) 업데이트가 수행되는 시간 가까이, 몇몇 실시예들은 다음과 같이 진행된다:
- 정상 동작에 대해: 제 1 LTP 동작이 바람직하기 때문에 LTP 지연 버퍼(1020)를 업데이트하기 위해, 이는 합산된 출력 신호가 일반적으로 끊임없이 저장되기 때문이다. 이러한 접근법을 통해, 전용 버퍼가 생략될 수 있다.
- 결합 해제 동작에 대해: 마지막 LTP 동작이 바람직하기 때문에 LTP 지연 버퍼(1020)를 업데이트하기 위해, 이는 신호에 대한 LTP 기여가 일반적으로 단지 임시로 저장되기 때문이다. 이러한 접근법을 통해, 일시적으로 LTP 기여 신호가 확보된다. 구현-방식의 이러한 LTP 기여 버퍼는 단지 끊임없이 이루어질 수 있다.
후자의 접근법이 임의의 경우(정상 동작 및 은닉)에 사용된다고 가정하면, 실시예들은 예를 들어, 다음을 구현할 수 있다:
- 정상 동작 동안: LTP 입력 신호로의 추가 이후에 LTP 디코더의 시간 도메인 신호 출력은 LTP 지연 버퍼에 공급하는데 사용된다.
- 은닉 동안: LTP 입력 신호로의 추가 이전에 LTP 디코더의 시간 도메인 신호 출력은 LTP 지연 버퍼에 공급하는데 사용된다.
몇몇 실시예들은 TCX LTP 이득을 0쪽으로 페이딩한다. 그러한 실시예에서, TCX LTP 이득은 예를 들어, 특정한 신호 적응형 페이드-아웃 인자를 가지고 0쪽으로 페이딩될 수 있다. 예를 들어, 이것은 예를 들어, 다음의 의사-코드에 따라 반복적으로 이루어질 수 있다:
gain = gain_past * damping;
[...]
gain_past = gain;
여기서 gain은 현재 프레임에 적용된 TCX LTP 디코더 이득이고;
gain_past는 이전 프레임에 적용된 TCX LTP 디코더 이득이고;
damping은 (상대적인) 페이드-아웃 인자이다.
도 1d는 추가 실시예에 따른 장치를 도시하고, 장치는 지연 버퍼(180)를 포함하는 장기간 예측 유닛(170)을 더 포함한다. 장기간 예측 유닛(170)은 제 2 오디오 신호 부분에 따라, 지연 버퍼(180)에 저장되는 지연 버퍼 입력에 따라, 그리고 장기간 예측 이득에 따라, 처리된 신호를 생성하도록 구성된다. 더욱이, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스(110)에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스(110)에 의해 수신되지만, 붕괴되면, 장기간 예측 유닛은 장기간 예측 이득을 0쪽으로 페이딩하도록 구성된다.
다른 실시예들(미도시)에서, 장기간 예측 유닛은 예를 들어, 제 1 오디오 신호 부분에 따라, 지연 버퍼에 저장되는 지연 버퍼 입력에 따라, 그리고 장기간 예측 이득에 따라, 처리된 신호를 생성하도록 구성될 수 있다.
도 1d에서, 제 1 재구성 유닛(140)은 예를 들어, 추가로 처리된 시호에 따라 제 3 오디오 신호 부분을 생성할 수 있다.
실시예에서, 장기간 예측 유닛(170)은 예를 들어, 장기간 예측 이득을 0쪽으로 페이딩하도록 구성될 수 있고, 장기간 예측 이득이 0으로 페이딩되는 속도는 페이드-아웃 인자에 의존한다.
대안적으로 또는 추가로, 장기간 예측 유닛(170)은 예를 들어, 복수의 프레임들의 상기 제 3 프레임이 수신 인터페이스(110)에 의해 수신되지 않으면, 또는 상기 제 3 프레임이 수신 인터페이스(110)에 의해 수신되지만, 붕괴되면, 생성된 처리된 신호를 지연 버퍼(180)에 저장함으로써 지연 버퍼(180)를 업데이트하도록 구성될 수 있다.
TCX LTP의 전술한 이용에 관해, 더 일반적인 실시예는 도 13에 도시된다.
도 13은 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치를 도시한다.
장치는 복수의 프레임들을 수신하기 위한 수신 인터페이스(1310)와, 디코딩된 오디오 신호의 오디오 신호 샘플들을 저장하기 위한 지연 버퍼(1320)와, 지연 버퍼(1320)에 저장되는 오디오 신호 샘플들로부터 복수의 선택된 오디오 신호 샘플들을 선택하기 위한 샘플 선택기(1330)와, 재구성된 오디오 신호의 재구성된 오디오 신호 샘플들을 얻기 위해 선택된 오디오 신호 샘플들을 처리하기 위한 샘플 프로세서(1340)를 포함한다.
샘플 선택기(1330)는, 현재 프레임이 수신 인터페이스(1310)에 의해 수신되면, 그리고 수신 인터페이스(1310)에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 현재 프레임에 의해 포함되는 피치 래그 정보에 따라 지연 버퍼(1320)에 저장되는 오디오 신호 샘플들로부터 복수의 선택된 오디오 신호 샘플들을 선택하도록 구성된다. 더욱이, 샘플 선택기(1330)는, 현재 프레임이 수신 인터페이스(1310)에 의해 수신되지 않으면, 또는 수신 인터페이스(1310)에 의해 수신되는 현재 프레임이 붕괴되면, 수신 인터페이스(1310)에 의해 이전에 수신되는 다른 프레임에 의해 포함되는 피치 래그 정보에 따라 지연 버퍼(1320)에 저장되는 오디오 신호로부터 복수의 선택된 오디오 신호 샘플들을 선택하도록 구성된다.
실시예에 따라, 샘플 프로세서(1340)는, 예를 들어 현재 프레임이 수신 인터페이스(1310)에 의해 수신되면, 그리고 수신 인터페이스(1310)에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 현재 프레임에 의해 포함되는 이득 정보에 따라 선택된 오디오 신호 샘플들을 재스케일링함으로써, 재구성된 오디오 신호 샘플들을 얻도록 구성될 수 있다. 더욱이, 샘플 선택기(1330)는 예를 들어, 현재 프레임이 수신 인터페이스(1310)에 의해 수신되지 않으면, 또는 수신 인터페이스(1310)에 의해 수신되는 현재 프레임이 붕괴되면, 수신 인터페이스(1310)에 의해 이전에 수신된 상기 다른 프레임에 의해 포함되는 이득 정보에 따라 선택된 오디오 신호 샘플들을 재스케일링함으로써, 재구성된 오디오 신호 샘플들을 얻도록 구성될 수 있다.
실시예에서, 샘플 프로세서(1340)는 예를 들어, 현재 프레임이 수신 인터페이스(1310)에 의해 수신되면, 그리고 수신 인터페이스(1310)에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 현재 프레임에 의해 포함되는 이득 정보에 따른 값과 선택된 오디오 신호 샘플들을 곱함으로써, 재구성된 오디오 신호 샘플들을 얻도록 구성될 수 있다. 더욱이, 샘플 선택기(1330)는, 현재 프레임이 수신 인터페이스(1310)에 의해 수신되지 않으면, 또는 수신 인터페이스(1310)에 의해 수신되는 현재 프레임이 붕괴되면, 수신 인터페이스(1310)에 의해 이전에 수신되는 상기 다른 프레임에 의해 포함되는 이득 정보에 따른 값과 선택된 오디오 신호 샘플들을 곱함으로써, 재구성된 오디오 신호 샘플들을 얻도록 구성될 수 있다.
실시예에 따라, 샘플 프로세서(1340)는 예를 들어, 재구성된 오디오 신호 샘플들을 지연 버퍼(1320)에 저장하도록 구성될 수 있다.
실시예에서, 샘플 프로세서(1340)는 예를 들어, 추가 프레임이 수신 인터페이스(1310)에 의해 수신되기 전에 재구성된 오디오 신호 샘플들을 지연 버퍼(1320)에 저장하도록 구성될 수 있다.
실시예에 따라, 샘플 프로세서(1340)는 예를 들어, 추가 프레임이 수신 인터페이스(1310)에 의해 수신된 후에 재구성된 오디오 신호 샘플들을 지연 버퍼(1320)에 저장하도록 구성될 수 있다.
실시예에서, 샘플 프로세서(1340)는, 예를 들어, 재스케일링된 오디오 신호 샘플들을 얻기 위해 이득 정보에 따라, 그리고 처리된 오디오 신호 샘플들을 얻기 위해 재스케일링된 오디오 신호 샘플들과 입력 오디오 신호 샘플들을 조합함으로써, 선택된 오디오 신호 샘플들을 재스케일링하도록 구성될 수 있다.
실시예에 따라, 샘플 프로세서(1340)는 예를 들어, 재스케일링된 오디오 신호 샘플들과 입력 오디오 신호 샘플들의 조합을 나타내는 처리된 오디오 신호 샘플들을 지연 버퍼(1320)에 저장하고, 현재 프레임이 수신 인터페이스(1310)에 의해 수신되면, 그리고 수신 인터페이스(1310)에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 재스케일링된 오디오 신호 샘플들을 지연 버퍼(1320)에 저장하지 않도록 구성될 수 있다. 더욱이, 샘플 프로세서(1340)는, 재스케일링된 오디오 신호 샘플들을 지연 버퍼(1320)에 저장하고, 현재 프레임이 수신 인터페이스(1310)에 의해 수신되지 않으면, 또는 수신 인터페이스(1310)에 의해 수신되는 현재 프레임이 붕괴되지 않으면, 처리된 오디오 신호 샘플들을 지연 버퍼(1320)에 저장하지 않도록 구성된다.
다른 실시예에 따라, 샘플 프로세서(1340)는 예를 들어, 현재 프레임이 수신 인터페이스(1310)에 의해 수신되지 않으면, 또는 수신 인터페이스(1310)에 의해 수신되는 현재 프레임이 붕괴되면, 처리된 오디오 신호 샘플들을 지연 버퍼(1320)에 저장하도록 구성될 수 있다.
실시예에서, 샘플 선택기(1330)는 예를 들어, 변형된 이득에 따라 선택된 오디오 신호 샘플들을 재스케일링함으로써 재구성된 오디오 신호 샘플들을 얻도록 구성될 수 있고, 변형된 이득은 수학식 gain = gain_past * damping에 따라 정의되고;
여기서 gain은 변형된 이득이고, 샘플 선택기(1330)는 예를 들어, gain이 계산된 후에 gain_past를 gain으로 설정하도록 구성될 수 있고, damping은 실수이다.
실시예에 따라, 샘플 선택기(1330)는 예를 들어, 변형된 이득을 계산하도록 구성될 수 있다.
실시예에서, damping은 예를 들어, 0 < damping < 1에 따라 정의될 수 있다.
실시예에 따라, 변형된 이득 gain은 예를 들어, 프레임이 수신 인터페이스(1310)에 의해 마지막으로 수신되었기 때문에 적어도 미리 한정된 수의 프레임들이 수신 인터페이스(1310)에 의해 수신되지 않은 경우 0으로 설정될 수 있다.
다음에서, 페이드-아웃 속도가 고려된다. 특정 종류의 페이드-아웃을 적용하는 여러 은닉 모듈들이 존재한다. 이러한 페이드-아웃의 속도가 이들 모듈들 양단에서 상이하게 선택될 수 있지만, 하나의 코어에 대한 모든 은닉 모듈들(ACELP 또는 TCX)에 대해 동일한 페이드-아웃 속도를 이용하는 것이 유리하다. 예를 들어:
ACELP에 대해, 동일한 페이드 아웃 속도가, 특히 적응형 코드북(이득을 변경함으로써), 및/또는 혁신 코드북 신호(이득을 변경함으로써)에 대해 사용되어야 한다.
또한, TCX에 대해, 동일한 페이드 아웃 속도가, 특히 시간 도메인 신호, 및/또는 LTP 이득(0으로의 페이딩), 및/또는 LPC 가중치(1로 페이딩), 및/또는 LP 계수들(배경 스펙트럼 형태로 페이딩), 및/또는 백색 잡음으로의 교차 페이드에 사용되어야 한다.
또한 ACELP 및 TCX에 대해 동일한 페이드-아웃 속도를 이용하는 것이 추가로 바람직할 수 있지만, 코어들의 상이한 특성으로 인해, 또한 상이한 페이드-아웃 속도들을 이용하도록 선택될 수 있다.
이러한 페이드-아웃 속도는 정적일 수 있지만, 바람직하게 신호 특징들에 적응성이다. 예를 들어, 페이드-아웃 속도는 예를 들어, LPC 안정도 인자(TCX) 및/또는 분류, 및/또는 연속적으로 손실된 프레임들의 개수에 의존할 수 있다.
페이드-아웃 속도는, 예를 들어, 감쇄 인자에 따라 결정될 수 있는데, 이러한 감쇄 인자는 절대적으로 또는 상대적으로 주어질 수 있고, 또한 특정 페이드-아웃 동안 시간이 지남에 따라 변할 수 있다.
실시예들에서, 동일한 페이딩 속도는 백색 잡음 페이딩에 대한 LTP 이득 페이딩에 사용된다.
전술한 바와 같이, 안락 잡음 신호를 생성하기 위한 장치, 방법 및 컴퓨터 프로그램이 제공되었다.
몇몇 양상들이 장치의 정황에서 기재되었지만, 이들 양상들이 또한 대응하는 방법의 설명을 나타내고, 여기서 블록 또는 디바이스가 방법 단계 또는 방법 단계의 특징에 대응한다는 것이 명확하다. 유사하게, 방법 단계의 정황에서 기재된 양상들은 또한 대응하는 블록 또는 대응하는 장치의 항목 또는 특징의 설명을 나타낸다.
본 발명의 분해된 신호는 디지털 저장 매체 상에 저장될 수 있거나, 인터넷과 같이 무선 송신 매체 또는 유선 송신 매체와 같은 송신 매체 상에서 송신될 수 있다.
특정 구현 요건들에 따라, 본 발명의 실시예들은 하드웨어 또는 소프트웨어로 구현될 수 있다. 구현은 디지털 저장 매체, 예를 들어, 플로피 디스크, DVD, CD, ROM, PROM, EPROM, EEPROM, 또는 FLASH 메모리를 이용하여 수행될 수 있는데, 이러한 디지털 저장 매체는 그 위에 저장된 전자적으로 판독가능한 제어 신호들을 갖고, 각 방법이 수행되도록 프로그래밍가능 컴퓨터 시스템과 협력한다(또는 협력할 수 있다).
본 발명에 따른 몇몇 실시예들은, 본 명세서에 기재된 방법들 중 하나가 수행되도록, 프로그래밍가능 컴퓨터 시스템과 협력할 수 있는, 전자적으로 판독가능한 제어 신호들을 갖는 비-임시 데이터 캐리어를 포함한다.
일반적으로, 본 발명의 실시예들은 프로그램 코드를 갖는 컴퓨터 프로그램 제품으로서 구현될 수 있고, 프로그램 코드는, 컴퓨터 프로그램이 컴퓨터 상에서 실행될 때 방법들 중 하나를 수행하기 위해 동작가능하다. 프로그램 코드는 예를 들어, 기계 판독가능한 캐리어 상에 저장될 수 있다.
다른 실시예들은 기계 판독가능한 캐리어 상에 저장된, 본 명세서에 기재된 방법들 중 하나를 수행하기 위한 컴퓨터 프로그램을 포함한다.
즉, 그러므로, 본 발명의 방법의 실시예는, 컴퓨터 프로그램이 컴퓨터 상에서 실행될 때, 본 명세서에 기재된 방법들 중 하나를 수행하기 위한 프로그램 코드를 갖는 컴퓨터 프로그램이다.
그러므로, 본 발명의 방법들의 추가 실시예는 본 명세서에 기재된 방법들 중 하나를 수행하기 위한 컴퓨터 프로그램을 그 위에 리코딩되게 포함하는 데이터 캐리어(또는 디지털 저장 매체, 또는 컴퓨터-판독가능 매체)이다.
그러므로, 본 발명의 방법의 추가 실시예는 본 명세서에 기재된 방법들 중 하나를 수행하기 위한 컴퓨터 프로그램을 나타내는 신호들의 시퀀스 또는 데이터 스트림이다. 예를 들어, 신호들의 시퀀스들 또는 데이터 스트림은 데이터 통신 연결부를 통해, 예를 들어, 인터넷을 통해, 전송되도록 구성될 수 있다.
추가 실시예는 본 명세서에 기재된 방법들 중 하나를 수행하도록 구성되거나 적응된 처리 수단, 예를 들어, 컴퓨터, 또는 프로그래밍가능 논리 디바이스를 포함한다.
추가 실시예는 본 명세서에 기재된 방법들 중 하나를 수행하기 위한 컴퓨터 프로그램이 그 위에 설치된 컴퓨터를 포함한다.
몇몇 실시예들에서, 프로그래밍가능 논리 디바이스(예를 들어, 전계 프로그래밍가능 게이트 어레이)는 본 명세서에 기재된 방법들의 기능들 중 몇몇 또는 전부를 수행하는데 사용될 수 있다. 몇몇 실시예들에서, 전계 프로그래밍가능 게이트 어레이는 본 명세서에 기재된 방법들 중 하나를 수행하기 위해 마이크로프로세서와 협력할 수 있다. 일반적으로, 방법들은 임의의 하드웨어 장치에 의해 바람직하게 수행된다.
전술한 실시예들은 본 발명의 원리들을 위해 단지 예시적이다. 본 명세서에 기재된 세부사항들 및 배치들의 변형들 및 변경들이 당업자에게 명백하다는 것이 이해된다. 그러므로, 본 명세서에서 실시예들의 기재 및 설명에 의해 제공된 특정 세부사항들에 의해서가 아니라 다음의 특허 청구항들의 범주에 의해서만 제한되도록 의도된다.
인용 문헌들
[3GP09a] 3GPP; Technical Specification Group Services and System Aspects, Extended adaptive multi-rate - wideband (AMR- WB +) codec, 3GPP TS 26.290, 3rd Generation Partnership Project, 2009.
[3GP09b] Extended adaptive multi-rate - wideband (AMR- WB +) codec; floating-point ANSI-C code, 3GPP TS 26.304, 3rd Generation Partnership Project, 2009.
[3GP09c] Speech codec speech processing functions; adaptive multi-rate - wideband ( AMRWB ) speech codec; transcoding functions, 3GPP TS 26.190, 3rd Generation Partnership Project, 2009.
[3GP12a] Adaptive multi-rate (AMR) speech codec; error concealment of lost frames (release 11), 3GPP TS 26.091, 3rd Generation Partnership Project, Sep 2012.
[3GP12b] Adaptive multi-rate (AMR) speech codec; transcoding functions (release 11), 3GPP TS 26.090, 3rd Generation Partnership Project, Sep 2012. [3GP12c] , ANSI-C code for the adaptive multi-rate - wideband (AMR-WB) speech codec, 3GPP TS 26.173, 3rd Generation Partnership Project, Sep 2012.
[3GP12d] ANSI-C code for the floating-point adaptive multi-rate (AMR) speech codec ( release11 ), 3GPP TS 26.104, 3rd Generation Partnership Project, Sep 2012.
[3GP12e] General audio codec audio processing functions; Enhanced aacPlus general audio codec; additional decoder tools (release 11), 3GPP TS 26.402, 3rd Generation Partnership Project, Sep 2012.
[3GP12f] Speech codec speech processing functions; adaptive multi-rate - wideband (amr- wb ) speech codec; ansi-c code, 3GPP TS 26.204, 3rd Generation Partnership Project, 2012.
[3GP12g] Speech codec speech processing functions; adaptive multi-rate - wideband (AMR- WB ) speech codec; error concealment of erroneous or lost frames, 3GPP TS 26.191, 3rd Generation Partnership Project, Sep 2012.
[BJH06] I. Batina, J. Jensen, and R. Heusdens, Noise power spectrum estimation for speech enhancement using an autoregressive model for speech power spectrum dynamics, in Proc. IEEE Int. Conf. Acoust., Speech, Signal Process. 3 (2006), 1064-1067.
[BP06] A. Borowicz and A. Petrovsky, Minima controlled noise estimation for klt -based speech enhancement, CD-ROM, 2006, Italy, Florence.
[Coh03] I. Cohen, Noise spectrum estimation in adverse environments: Improved minima controlled recursive averaging, IEEE Trans. Speech Audio Process. 11 (2003), no. 5, 466-475.
[CPK08] Choong Sang Cho, Nam In Park, and Hong Kook Kim, A packet loss concealment algorithm robust to burst packet loss for celp - type speech coders, Tech. report, Korea Enectronics Technology Institute, Gwang Institute of Science and Technology, 2008, The 23rd International Technical Conference on Circuits/Systems, Computers and Communications (ITC-CSCC 2008).
[Dob95] G. Doblinger, Computationally efficient speech enhancement by spectral minima tracking in subbands, in Proc. Eurospeech (1995), 1513-1516.
[EBU10] EBU/ETSI JTC Broadcast, Digital audio broadcasting (DAB); transport of advanced audio coding ( AAC ) audio, ETSI TS 102 563, European Broadcasting Union, May 2010.
[EBU12] Digital radio mondiale ( DRM ); system specification, ETSI ES 201 980, ETSI, Jun 2012.
[EH08] Jan S. Erkelens and Richards Heusdens, Tracking of Nonstationary Noise Based on Data-Driven Recursive Noise Power Estimation, Audio, Speech, and Language Processing, IEEE Transactions on 16 (2008), no. 6, 1112 -1123.
[EM84] Y. Ephraim and D. Malah, Speech enhancement using a minimum mean-square error short-time spectral amplitude estimator, IEEE Trans. Acoustics, Speech and Signal Processing 32 (1984), no. 6, 1109-1121.
[EM85] Speech enhancement using a minimum mean-square error log-spectral amplitude estimator, IEEE Trans. Acoustics, Speech and Signal Processing 33 (1985), 443-445.
[Gan05] S. Gannot, Speech enhancement: Application of the kalman filter in the estimate-maximize ( em framework), Springer, 2005.
[HE95] H. G. Hirsch and C. Ehrlicher, Noise estimation techniques for robust speech recognition, Proc. IEEE Int. Conf. Acoustics, Speech, Signal Processing, no. pp. 153-156, IEEE, 1995.
[HHJ10] Richard C. Hendriks, Richard Heusdens, and Jesper Jensen, MMSE based noise PSD tracking with low complexity, Acoustics Speech and Signal Processing (ICASSP), 2010 IEEE International Conference on, Mar 2010, pp. 4266 -4269.
[HJH08] Richard C. Hendriks, Jesper Jensen, and Richard Heusdens, Noise tracking using dft domain subspace decompositions, IEEE Trans. Audio, Speech, Lang. Process. 16 (2008), no. 3, 541-553.
[IET12] IETF, Definition of the Opus Audio Codec, Tech. Report RFC 6716, Internet Engineering Task Force, Sep 2012.
[ISO09] ISO/IEC JTC1/SC29/WG11, Information technology - coding of audio-visual objects - part 3: Audio, ISO/IEC IS 14496-3, International Organization for Standardization, 2009.
[ITU03] ITU-T, Wideband coding of speech at around 16 kbit /s using adaptive multi-rate wideband (amr- wb ), Recommendation ITU-T G.722.2, Telecommunication Standardization Sector of ITU, Jul 2003.
[ITU05] Low-complexity coding at 24 and 32 kbit /s for hands-free operation in systems with low frame loss, Recommendation ITU-T G.722.1, Telecommunication Standardization Sector of ITU, May 2005.
[ITU06a] G.722 Appendix III: A high-complexity algorithm for packet loss concealment for G.722, ITU-T Recommendation, ITU-T, Nov 2006.
[ITU06b] G.729.1: G.729-based embedded variable bit-rate coder: An 8-32 kbit /s scalable wideband coder bitstream interoperable with g.729, Recommendation ITU-T G.729.1, Telecommunication Standardization Sector of ITU, May 2006.
[ITU07] G.722 Appendix IV: A low-complexity algorithm for packet loss concealment with G.722, ITU-T Recommendation, ITU-T, Aug 2007.
[ITU08a] G.718: Frame error robust narrow-band and wideband embedded variable bit-rate coding of speech and audio from 8-32 kbit /s, Recommendation ITU-T G.718, Telecommunication Standardization Sector of ITU, Jun 2008.
[ITU08b] G.719: Low-complexity, full-band audio coding for high-quality, conversational applications, Recommendation ITU-T G.719, Telecommunication Standardization Sector of ITU, Jun 2008.
[ITU12] G.729: Coding of speech at 8 kbit /s using conjugate-structure algebraic-code-excited linear prediction (cs- acelp ), Recommendation ITU-T G.729, Telecommunication Standardization Sector of ITU, June 2012.
[LS01] Pierre Lauber and Ralph Sperschneider, Error concealment for compressed digital audio, Audio Engineering Society Convention 111, no. 5460, Sep 2001.
[Mar01] Rainer Martin, Noise power spectral density estimation based on optimal smoothing and minimum statistics, IEEE Transactions on Speech and Audio Processing 9 (2001), no. 5, 504 -512.
[Mar03] Statistical methods for the enhancement of noisy speech, International Workshop on Acoustic Echo and Noise Control (IWAENC2003), Technical University of Braunschweig, Sep 2003.
[MC99] R. Martin and R. Cox, New speech enhancement techniques for low bit rate speech coding, in Proc. IEEE Workshop on Speech Coding (1999), 165-167.
[MCA99] D. Malah, R. V. Cox, and A. J. Accardi, Tracking speech-presence uncertainty to improve speech enhancement in nonstationary noise environments, Proc. IEEE Int. Conf. on Acoustics Speech and Signal Processing (1999), 789-792.
[MEP01] Nikolaus Meine, Bernd Edler, and Heiko Purnhagen, Error protection and concealment for HILN MPEG-4 parametric audio coding, Audio Engineering Society Convention 110, no. 5300, May 2001.
[MPC89] Y. Mahieux, J.-P. Petit, and A. Charbonnier, Transform coding of audio signals using correlation between successive transform blocks, Acoustics, Speech, and Signal Processing, 1989. ICASSP-89., 1989 International Conference on, 1989, pp. 2021-2024 vol.3.
[NMR+12] Max Neuendorf, Markus Multrus, Nikolaus Rettelbach, Guillaume Fuchs, Julien Robilliard, Jㅹrㅹmie Lecomte, Stephan Wilde, Stefan Bayer, Sascha Disch, Christian Helmrich, Roch Lefebvre, Philippe Gournay, Bruno Bessette, Jimmy Lapierre, Kristopfer Kjㆆrling, Heiko Purnhagen, Lars Villemoes, Werner Oomen, Erik Schuijers, Kei Kikuiri, Toru Chinen, Takeshi Norimatsu, Chong Kok Seng, Eunmi Oh, Miyoung Kim, Schuyler Quackenbush, and Berndhard Grill, MPEG Unified Speech and Audio Coding - The ISO / MPEG Standard for High-Efficiency Audio Coding of all Content Types, Convention Paper 8654, AES, April 2012, Presented at the 132nd Convention Budapest, Hungary.
[PKJ+11] Nam In Park, Hong Kook Kim, Min A Jung, Seong Ro Lee, and Seung Ho Choi, Burst packet loss concealment using multiple codebooks and comfort noise for celp -type speech coders in wireless sensor networks, Sensors 11 (2011), 5323-5336.
[QD03] Schuyler Quackenbush and Peter F. Driessen, Error mitigation in MPEG-4 audio packet communication systems, Audio Engineering Society Convention 115, no. 5981, Oct 2003.
[RL06] S. Rangachari and P. C. Loizou, A noise-estimation algorithm for highly non-stationary environments, Speech Commun. 48 (2006), 220-231.
[SFB00] V. Stahl, A. Fischer, and R. Bippus, Quantile based noise estimation for spectral subtraction and wiener filtering, in Proc. IEEE Int. Conf. Acoust., Speech and Signal Process. (2000), 1875-1878.
[SS98] J. Sohn and W. Sung, A voice activity detector employing soft decision based noise spectrum adaptation, Proc. IEEE Int. Conf. Acoustics, Speech, Signal Processing, no. pp. 365-368, IEEE, 1998.
[Yu09] Rongshan Yu, A low-complexity noise estimation algorithm based on smoothing of noise power estimation and estimation bias correction, Acoustics, Speech and Signal Processing, 2009. ICASSP 2009. IEEE International Conference on, Apr 2009, pp. 4421-4424.

Claims (13)

  1. 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치로서,
    하나 이상의 프레임들을 수신하기 위한 수신 인터페이스(1110),
    계수 생성기(1120), 및
    신호 재구성기(1130)를 포함하고,
    상기 계수 생성기(1120)는 상기 하나 이상의 프레임들의 현재 프레임이 상기 수신 인터페이스(1110)에 의해 수신되면, 그리고 상기 수신 인터페이스(1110)에 의해 수신되는 상기 현재 프레임이 붕괴되지 않으면, 상기 현재 프레임에 의해 포함되는 하나 이상의 제 1 오디오 신호 계수들을 결정하도록 구성되고, 상기 하나 이상의 제 1 오디오 신호 계수들은 상기 인코딩된 오디오 신호의 특징을 나타내고, 하나 이상의 잡음 계수들은 상기 인코딩된 오디오 신호의 배경 잡음을 나타내고,
    상기 계수 생성기(1120)는, 상기 현재 프레임이 상기 수신 인터페이스(1110)에 의해 수신되지 않으면, 또는 상기 수신 인터페이스(1110)에 의해 수신되는 상기 현재 프레임이 붕괴되면, 상기 하나 이상의 제 1 오디오 신호 계수들에 따라, 그리고 상기 하나 이상의 잡음 계수들에 따라 하나 이상의 제 2 오디오 신호 계수들을 생성하도록 구성되고,
    오디오 신호 재구성기(1130)는, 상기 현재 프레임이 상기 수신 인터페이스(1110)에 의해 수신되면, 그리고 상기 수신 인터페이스(1110)에 의해 수신되는 상기 현재 프레임이 붕괴되지 않으면, 상기 하나 이상의 제 1 오디오 신호 계수들에 따라 상기 재구성된 오디오 신호의 제 1 부분을 재구성하도록 구성되고,
    상기 오디오 신호 재구성기(1130)는, 상기 현재 프레임이 상기 수신 인터페이스(1110)에 의해 수신되지 않으면, 또는 상기 수신 인터페이스(1110)에 의해 수신되는 상기 현재 프레임이 붕괴되면, 상기 하나 이상의 제 2 오디오 신호 계수들에 따라 상기 재구성된 오디오 신호의 제 2 부분을 재구성하도록 구성되는, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치.
  2. 제 1항에 있어서, 상기 하나 이상의 제 1 오디오 신호 계수들은 상기 인코딩된 오디오 신호의 하나 이상의 선형 예측 필터 계수들인, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치.
  3. 제 2항에 있어서, 상기 하나 이상의 선형 예측 필터 계수들은 상기 인코딩된 오디오 신호의 하나 이상의 이미턴스(immittance) 스펙트럼 쌍들에 의해, 또는 하나 이상의 라인 스펙트럼 쌍들에 의해, 또는 하나 이상의 이미턴스 스펙트럼 주파수들에 의해, 또는 하나 이상의 라인 스펙트럼 주파수들에 의해 표현되는, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치.
  4. 제 1항 내지 제 3항 중 어느 한 항에 있어서, 상기 하나 이상의 잡음 계수들은 상기 인코딩된 오디오 신호의 상기 배경 잡음을 나타내는 하나 이상의 선형 예측 필터 계수들인, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치.
  5. 제 1항 내지 제 4항 중 어느 한 항에 있어서, 상기 하나 이상의 선형 예측 필터 계수들은 상기 배경 잡음의 스펙트럼 형태를 나타내는, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치.
  6. 제 1항 내지 제 5항 중 어느 한 항에 있어서, 상기 계수 생성기(1120)는, 상기 하나 이상의 제 2 오디오 신호 부분들이 상기 재구성된 오디오 신호의 하나 이상의 선형 예측 필터 계수들이 되도록 상기 하나 이상의 제 2 오디오 신호 부분들을 결정하도록 구성되는, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치.
  7. 제 1항에 있어서,
    상기 계수 생성기(1120)는 수학식
    Figure pct00047
    을 적용함으로써 상기 하나 이상의 제 2 오디오 신호 계수들을 생성하도록 구성되고,
    여기서 f current [i]는 상기 하나 이상의 제 2 오디오 신호 계수들 중 하나를 나타내고,
    f last [i]는 상기 하나 이상의 제 1 오디오 신호 계수들 중 하나를 나타내고,
    pt mean [i]는 상기 하나 이상의 잡음 계수들 중 하나이고,
    α는 0 ≤α≤1을 갖는 실수이고,
    i는 인덱스인, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치.
  8. 제 7항에 있어서, f last [i]는 상기 인코딩된 오디오 신호의 선형 예측 필터 계수를 나타내고,
    f current [i]는 상기 재구성된 오디오 신호의 선형 예측 필터 계수를 나타내는, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치.
  9. 제 8항에 있어서, pt mean [i]는 상기 인코딩된 오디오 신호의 상기 배경 잡음을 나타내는, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치.
  10. 제 1항 내지 제 9항 중 어느 한 항에 있어서, 상기 계수 생성기(1120)는, 상기 하나 이상의 프레임들의 상기 현재 프레임이 상기 수신 인터페이스(1110)에 의해 수신되면, 그리고 상기 수신 인터페이스(1110)에 의해 수신되는 상기 현재 프레임이 붕괴되지 않으면, 상기 인코딩된 오디오 신호의 잡음 스펙트럼을 결정함으로써 하나 이상의 잡음 계수들을 결정하도록 구성되는, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치.
  11. 제 1항 내지 제 10항 중 어느 한 항에 있어서, 상기 계수 생성기(1120)는, 배경 잡음 스펙트럼을 결정하기 위해 상기 신호 스펙트럼 상에서 최소 통계 접근법을 이용함으로써, 그리고 상기 배경 잡음 스펙트럼으로부터 배경 잡음 형태를 나타내는 LPC 계수들을 계산함으로써 배경 잡음을 나타내는 LPC 계수들을 결정하도록 구성되는, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 장치.
  12. 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 방법으로서,
    하나 이상의 프레임들을 수신하는 단계,
    하나 이상의 프레임들의 현재 프레임이 수신되면, 그리고 수신되는 상기 현재 프레임이 붕괴되지 않으면, 상기 현재 프레임에 포함되는 하나 이상의 제 1 오디오 신호 계수들을 결정하는 단계로서, 상기 하나 이상의 제 1 오디오 신호 계수들은 상기 인코딩된 오디오 신호의 특징을 나타내고, 하나 이상의 잡음 계수들은 상기 인코딩된 오디오 신호의 배경 잡음을 나타내는, 상기 결정하는 단계,
    상기 현재 프레임이 수신되지 않으면, 또는 수신되는 상기 현재 프레임이 붕괴되면, 상기 하나 이상의 제 1 오디오 신호 계수들에 따라, 그리고 상기 하나 이상의 잡음 계수들에 따라, 하나 이상의 제 2 오디오 신호 계수들을 생성하는 단계,
    상기 현재 프레임이 수신되면, 그리고 수신되는 상기 현재 프레임이 붕괴되지 않으면, 상기 하나 이상의 제 1 오디오 신호 계수들에 따라 상기 재구성된 오디오 신호의 제 1 부분을 재구성하는 단계, 및
    상기 현재 프레임이 수신되지 않으면, 또는 수신되는 상기 현재 프레임이 붕괴되면, 상기 하나 이상의 제 2 오디오 신호 계수들에 따라 상기 재구성된 오디오 신호의 제 2 부분을 재구성하는 단계를
    포함하는, 재구성된 오디오 신호를 얻기 위해 인코딩된 오디오 신호를 디코딩하기 위한 방법.
  13. 컴퓨터 또는 신호 프로세서 상에서 실행될 때 제 12항의 방법을 구현하기 위한 컴퓨터 프로그램.
KR1020167001564A 2013-06-21 2014-06-23 안락 잡음의 적응형 스펙트럼 형태를 생성하기 위한 장치 및 방법 KR101785227B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP13173154.9 2013-06-21
EP13173154 2013-06-21
EP14166998 2014-05-05
EP14166998.6 2014-05-05
PCT/EP2014/063173 WO2014202786A1 (en) 2013-06-21 2014-06-23 Apparatus and method for generating an adaptive spectral shape of comfort noise

Publications (2)

Publication Number Publication Date
KR20160022364A true KR20160022364A (ko) 2016-02-29
KR101785227B1 KR101785227B1 (ko) 2017-10-12

Family

ID=50981527

Family Applications (5)

Application Number Title Priority Date Filing Date
KR1020167001580A KR101788484B1 (ko) 2013-06-21 2014-06-23 Tcx ltp를 이용하여 붕괴되거나 붕괴되지 않은 수신된 프레임들의 재구성을 갖는 오디오 디코딩
KR1020167001567A KR101790901B1 (ko) 2013-06-21 2014-06-23 Fdns 적용 이전에 백색 잡음으로의 mdct 스펙트럼의 페이딩을 실현하는 장치 및 방법
KR1020167001561A KR101787296B1 (ko) 2013-06-21 2014-06-23 에러 은닉 동안 스위칭된 오디오 코딩 시스템들을 위해 개선된 신호 페이드 아웃을 위한 장치 및 방법
KR1020167001576A KR101790902B1 (ko) 2013-06-21 2014-06-23 에러 은닉 동안 상이한 도메인들에서 개선된 신호 페이드 아웃을 위한 장치 및 방법
KR1020167001564A KR101785227B1 (ko) 2013-06-21 2014-06-23 안락 잡음의 적응형 스펙트럼 형태를 생성하기 위한 장치 및 방법

Family Applications Before (4)

Application Number Title Priority Date Filing Date
KR1020167001580A KR101788484B1 (ko) 2013-06-21 2014-06-23 Tcx ltp를 이용하여 붕괴되거나 붕괴되지 않은 수신된 프레임들의 재구성을 갖는 오디오 디코딩
KR1020167001567A KR101790901B1 (ko) 2013-06-21 2014-06-23 Fdns 적용 이전에 백색 잡음으로의 mdct 스펙트럼의 페이딩을 실현하는 장치 및 방법
KR1020167001561A KR101787296B1 (ko) 2013-06-21 2014-06-23 에러 은닉 동안 스위칭된 오디오 코딩 시스템들을 위해 개선된 신호 페이드 아웃을 위한 장치 및 방법
KR1020167001576A KR101790902B1 (ko) 2013-06-21 2014-06-23 에러 은닉 동안 상이한 도메인들에서 개선된 신호 페이드 아웃을 위한 장치 및 방법

Country Status (19)

Country Link
US (15) US9978376B2 (ko)
EP (5) EP3011563B1 (ko)
JP (5) JP6201043B2 (ko)
KR (5) KR101788484B1 (ko)
CN (9) CN105359210B (ko)
AU (5) AU2014283124B2 (ko)
BR (2) BR112015031180B1 (ko)
CA (5) CA2913578C (ko)
ES (5) ES2639127T3 (ko)
HK (5) HK1224009A1 (ko)
MX (5) MX347233B (ko)
MY (5) MY181026A (ko)
PL (5) PL3011557T3 (ko)
PT (5) PT3011558T (ko)
RU (5) RU2675777C2 (ko)
SG (5) SG11201510353RA (ko)
TW (5) TWI553631B (ko)
WO (5) WO2014202789A1 (ko)
ZA (1) ZA201600310B (ko)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112015031180B1 (pt) * 2013-06-21 2022-04-05 Fraunhofer- Gesellschaft Zur Förderung Der Angewandten Forschung E.V Aparelho e método para gerar um formato espectral adaptativo de ruído de conforto
FR3024582A1 (fr) 2014-07-29 2016-02-05 Orange Gestion de la perte de trame dans un contexte de transition fd/lpd
US10008214B2 (en) * 2015-09-11 2018-06-26 Electronics And Telecommunications Research Institute USAC audio signal encoding/decoding apparatus and method for digital radio services
CA2998689C (en) 2015-09-25 2021-10-26 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoder and method for encoding an audio signal with reduced background noise using linear predictive coding
WO2017153300A1 (en) 2016-03-07 2017-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Error concealment unit, audio decoder, and related method and computer program using characteristics of a decoded representation of a properly decoded audio frame
MX2018010754A (es) * 2016-03-07 2019-01-14 Fraunhofer Ges Forschung Unidad de ocultamiento de error, decodificador de audio y método relacionado y programa de computadora que desaparece una trama de audio ocultada de acuerdo con factores de amortiguamiento diferentes para bandas de frecuencia diferentes.
KR102158743B1 (ko) * 2016-03-15 2020-09-22 한국전자통신연구원 자연어 음성인식의 성능향상을 위한 데이터 증강장치 및 방법
TWI602173B (zh) * 2016-10-21 2017-10-11 盛微先進科技股份有限公司 音訊處理方法與非暫時性電腦可讀媒體
CN108074586B (zh) * 2016-11-15 2021-02-12 电信科学技术研究院 一种语音问题的定位方法和装置
US10339947B2 (en) * 2017-03-22 2019-07-02 Immersion Networks, Inc. System and method for processing audio data
CN107123419A (zh) * 2017-05-18 2017-09-01 北京大生在线科技有限公司 Sphinx语速识别中背景降噪的优化方法
CN109427337B (zh) 2017-08-23 2021-03-30 华为技术有限公司 立体声信号编码时重建信号的方法和装置
EP3483884A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
EP3483886A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
US10650834B2 (en) 2018-01-10 2020-05-12 Savitech Corp. Audio processing method and non-transitory computer readable medium
EP3553777B1 (en) * 2018-04-09 2022-07-20 Dolby Laboratories Licensing Corporation Low-complexity packet loss concealment for transcoded audio signals
TWI657437B (zh) * 2018-05-25 2019-04-21 英屬開曼群島商睿能創意公司 電動載具以及播放、產生與其相關音頻訊號之方法
EP3821430A1 (en) * 2018-07-12 2021-05-19 Dolby International AB Dynamic eq
CN109117807B (zh) * 2018-08-24 2020-07-21 广东石油化工学院 一种plc通信信号自适应时频峰值滤波方法及系统
US10763885B2 (en) 2018-11-06 2020-09-01 Stmicroelectronics S.R.L. Method of error concealment, and associated device
CN111402905B (zh) * 2018-12-28 2023-05-26 南京中感微电子有限公司 音频数据恢复方法、装置及蓝牙设备
KR102603621B1 (ko) * 2019-01-08 2023-11-16 엘지전자 주식회사 신호 처리 장치 및 이를 구비하는 영상표시장치
WO2020165265A1 (en) 2019-02-13 2020-08-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder and decoding method for lc3 concealment including full frame loss concealment and partial frame loss concealment
WO2020164751A1 (en) 2019-02-13 2020-08-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder and decoding method for lc3 concealment including full frame loss concealment and partial frame loss concealment
CN110265046A (zh) * 2019-07-25 2019-09-20 腾讯科技(深圳)有限公司 一种编码参数调控方法、装置、设备及存储介质
JP7314414B2 (ja) 2019-12-02 2023-07-25 グーグル エルエルシー シームレスなオーディオ混合のための方法、システム、および媒体
TWI789577B (zh) * 2020-04-01 2023-01-11 同響科技股份有限公司 音訊資料重建方法及系統
CN114582361B (zh) * 2022-04-29 2022-07-08 北京百瑞互联技术有限公司 基于生成对抗网络的高解析度音频编解码方法及系统

Family Cites Families (173)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4933973A (en) * 1988-02-29 1990-06-12 Itt Corporation Apparatus and methods for the selective addition of noise to templates employed in automatic speech recognition systems
US5097507A (en) 1989-12-22 1992-03-17 General Electric Company Fading bit error protection for digital cellular multi-pulse speech coder
CA2010830C (en) 1990-02-23 1996-06-25 Jean-Pierre Adoul Dynamic codebook for efficient speech coding based on algebraic codes
US5148487A (en) * 1990-02-26 1992-09-15 Matsushita Electric Industrial Co., Ltd. Audio subband encoded signal decoder
TW224191B (ko) 1992-01-28 1994-05-21 Qualcomm Inc
US5271011A (en) 1992-03-16 1993-12-14 Scientific-Atlanta, Inc. Digital audio data muting system and method
SE501340C2 (sv) 1993-06-11 1995-01-23 Ericsson Telefon Ab L M Döljande av transmissionsfel i en talavkodare
US5615298A (en) 1994-03-14 1997-03-25 Lucent Technologies Inc. Excitation signal synthesis during frame erasure or packet loss
JP3328080B2 (ja) 1994-11-22 2002-09-24 沖電気工業株式会社 コード励振線形予測復号器
KR970011728B1 (ko) * 1994-12-21 1997-07-14 김광호 음향신호의 에러은닉방법 및 그 장치
FR2729246A1 (fr) * 1995-01-06 1996-07-12 Matra Communication Procede de codage de parole a analyse par synthese
SE9500858L (sv) * 1995-03-10 1996-09-11 Ericsson Telefon Ab L M Anordning och förfarande vid talöverföring och ett telekommunikationssystem omfattande dylik anordning
US5699485A (en) * 1995-06-07 1997-12-16 Lucent Technologies Inc. Pitch delay modification during frame erasures
JP3522012B2 (ja) 1995-08-23 2004-04-26 沖電気工業株式会社 コード励振線形予測符号化装置
JP3157116B2 (ja) 1996-03-29 2001-04-16 三菱電機株式会社 音声符号化伝送システム
US6075974A (en) * 1996-11-20 2000-06-13 Qualcomm Inc. Method and apparatus for adjusting thresholds and measurements of received signals by anticipating power control commands yet to be executed
JP3649854B2 (ja) * 1997-05-09 2005-05-18 松下電器産業株式会社 音声符号化装置
CN1243621A (zh) * 1997-09-12 2000-02-02 皇家菲利浦电子有限公司 具有改进的丢失部分重构功能的传输系统
KR100335611B1 (ko) * 1997-11-20 2002-10-09 삼성전자 주식회사 비트율 조절이 가능한 스테레오 오디오 부호화/복호화 방법 및 장치
ATE302991T1 (de) 1998-01-22 2005-09-15 Deutsche Telekom Ag Verfahren zur signalgesteuerten schaltung zwischen verschiedenen audiokodierungssystemen
US6351730B2 (en) * 1998-03-30 2002-02-26 Lucent Technologies Inc. Low-complexity, low-delay, scalable and embedded speech and audio coding with adaptive frame loss concealment
US20010014857A1 (en) * 1998-08-14 2001-08-16 Zifei Peter Wang A voice activity detector for packet voice network
US6480822B2 (en) * 1998-08-24 2002-11-12 Conexant Systems, Inc. Low complexity random codebook structure
FR2784218B1 (fr) * 1998-10-06 2000-12-08 Thomson Csf Procede de codage de la parole a bas debit
US6424938B1 (en) 1998-11-23 2002-07-23 Telefonaktiebolaget L M Ericsson Complex signal activity detection for improved speech/noise classification of an audio signal
US6289309B1 (en) 1998-12-16 2001-09-11 Sarnoff Corporation Noise spectrum tracking for speech enhancement
US6661793B1 (en) * 1999-01-19 2003-12-09 Vocaltec Communications Ltd. Method and apparatus for reconstructing media
US6640209B1 (en) 1999-02-26 2003-10-28 Qualcomm Incorporated Closed-loop multimode mixed-domain linear prediction (MDLP) speech coder
US6377915B1 (en) 1999-03-17 2002-04-23 Yrp Advanced Mobile Communication Systems Research Laboratories Co., Ltd. Speech decoding using mix ratio table
WO2000057399A1 (fr) 1999-03-19 2000-09-28 Sony Corporation Procede d'inclusion d'information additionnelle et dispositif a cet effet, et procede de decodage d'information additionnelle et dispositif a cet effet
DE60029715T2 (de) * 1999-04-19 2007-08-02 At & T Corp. Verfahren und anordnung zur verschleierung von rahmenausfall
US7117156B1 (en) * 1999-04-19 2006-10-03 At&T Corp. Method and apparatus for performing packet loss or frame erasure concealment
DE19921122C1 (de) 1999-05-07 2001-01-25 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Verschleiern eines Fehlers in einem codierten Audiosignal und Verfahren und Vorrichtung zum Decodieren eines codierten Audiosignals
US6284551B1 (en) * 1999-06-14 2001-09-04 Hyundai Electronics Industries Co., Ltd. Capacitor and method for fabricating the same
US6636829B1 (en) * 1999-09-22 2003-10-21 Mindspeed Technologies, Inc. Speech communication system and method for handling lost frames
US6604070B1 (en) 1999-09-22 2003-08-05 Conexant Systems, Inc. System of encoding and decoding speech signals
FI116643B (fi) 1999-11-15 2006-01-13 Nokia Corp Kohinan vaimennus
US6826527B1 (en) 1999-11-23 2004-11-30 Texas Instruments Incorporated Concealment of frame erasures and method
EP1238489B1 (en) * 1999-12-13 2008-03-05 Broadcom Corporation Voice gateway with downstream voice synchronization
GB2358558B (en) * 2000-01-18 2003-10-15 Mitel Corp Packet loss compensation method using injection of spectrally shaped noise
US6584438B1 (en) 2000-04-24 2003-06-24 Qualcomm Incorporated Frame erasure compensation method in a variable rate speech coder
FI115329B (fi) 2000-05-08 2005-04-15 Nokia Corp Menetelmä ja järjestely lähdesignaalin kaistanleveyden vaihtamiseksi tietoliikenneyhteydessä, jossa on valmiudet useisiin kaistanleveyksiin
US6757654B1 (en) * 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
EP1199709A1 (en) * 2000-10-20 2002-04-24 Telefonaktiebolaget Lm Ericsson Error Concealment in relation to decoding of encoded acoustic signals
US7031926B2 (en) 2000-10-23 2006-04-18 Nokia Corporation Spectral parameter substitution for the frame error concealment in a speech decoder
US7171355B1 (en) 2000-10-25 2007-01-30 Broadcom Corporation Method and apparatus for one-stage and two-stage noise feedback coding of speech and audio signals
US7113522B2 (en) 2001-01-24 2006-09-26 Qualcomm, Incorporated Enhanced conversion of wideband signals to narrowband signals
US7069208B2 (en) * 2001-01-24 2006-06-27 Nokia, Corp. System and method for concealment of data loss in digital audio transmission
FR2820227B1 (fr) 2001-01-30 2003-04-18 France Telecom Procede et dispositif de reduction de bruit
US20040204935A1 (en) * 2001-02-21 2004-10-14 Krishnasamy Anandakumar Adaptive voice playout in VOP
US6520762B2 (en) 2001-02-23 2003-02-18 Husky Injection Molding Systems, Ltd Injection unit
EP1235203B1 (en) * 2001-02-27 2009-08-12 Texas Instruments Incorporated Method for concealing erased speech frames and decoder therefor
US7590525B2 (en) * 2001-08-17 2009-09-15 Broadcom Corporation Frame erasure concealment for predictive speech coding based on extrapolation of speech waveform
US7379865B2 (en) 2001-10-26 2008-05-27 At&T Corp. System and methods for concealing errors in data transmission
KR100935961B1 (ko) * 2001-11-14 2010-01-08 파나소닉 주식회사 부호화 장치 및 복호화 장치
CA2365203A1 (en) 2001-12-14 2003-06-14 Voiceage Corporation A signal modification method for efficient coding of speech signals
JP2005515486A (ja) 2002-01-08 2005-05-26 ディリチウム ネットワークス ピーティーワイ リミテッド Celpによる音声符号間のトランスコーディング・スキーム
US20030162518A1 (en) 2002-02-22 2003-08-28 Baldwin Keith R. Rapid acquisition and tracking system for a wireless packet-based communication device
US7492703B2 (en) 2002-02-28 2009-02-17 Texas Instruments Incorporated Noise analysis in a communication system
JP2005520206A (ja) * 2002-03-12 2005-07-07 ディリチウム ネットワークス ピーティーワイ リミテッド オーディオ・トランスコーダにおける適応コードブック・ピッチ・ラグ計算方法
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
US7174292B2 (en) 2002-05-20 2007-02-06 Microsoft Corporation Method of determining uncertainty associated with acoustic distortion-based noise reduction
CA2388439A1 (en) * 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
JP2004120619A (ja) * 2002-09-27 2004-04-15 Kddi Corp オーディオ情報復号装置
KR100486732B1 (ko) * 2003-02-19 2005-05-03 삼성전자주식회사 블럭제한된 트렐리스 부호화 양자화방법과 음성부호화시스템에있어서 이를 채용한 라인스펙트럼주파수 계수양자화방법 및 장치
US20040202935A1 (en) * 2003-04-08 2004-10-14 Jeremy Barker Cathode active material with increased alkali/metal content and method of making same
WO2004098105A1 (en) 2003-04-30 2004-11-11 Nokia Corporation Support of a multichannel audio extension
US7433815B2 (en) 2003-09-10 2008-10-07 Dilithium Networks Pty Ltd. Method and apparatus for voice transcoding between variable rate coders
US7224810B2 (en) 2003-09-12 2007-05-29 Spatializer Audio Laboratories, Inc. Noise reduction system
JP4497911B2 (ja) * 2003-12-16 2010-07-07 キヤノン株式会社 信号検出装置および方法、ならびにプログラム
CA2457988A1 (en) 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
ATE523876T1 (de) * 2004-03-05 2011-09-15 Panasonic Corp Fehlerverbergungseinrichtung und fehlerverbergungsverfahren
US7620546B2 (en) 2004-03-23 2009-11-17 Qnx Software Systems (Wavemakers), Inc. Isolating speech signals utilizing neural networks
US7454332B2 (en) 2004-06-15 2008-11-18 Microsoft Corporation Gain constrained noise suppression
CN1989548B (zh) * 2004-07-20 2010-12-08 松下电器产业株式会社 语音解码装置及补偿帧生成方法
KR101168002B1 (ko) 2004-09-16 2012-07-26 프랑스 텔레콤 잡음 신호 처리 방법 및 상기 방법을 구현하기 위한 장치
SG124307A1 (en) * 2005-01-20 2006-08-30 St Microelectronics Asia Method and system for lost packet concealment in high quality audio streaming applications
KR100612889B1 (ko) * 2005-02-05 2006-08-14 삼성전자주식회사 선스펙트럼 쌍 파라미터 복원 방법 및 장치와 그 음성복호화 장치
US7930176B2 (en) 2005-05-20 2011-04-19 Broadcom Corporation Packet loss concealment for block-independent speech codecs
KR101244232B1 (ko) 2005-05-27 2013-03-18 오디언스 인코포레이티드 오디오 신호 분석 및 변경을 위한 시스템 및 방법
US7831421B2 (en) * 2005-05-31 2010-11-09 Microsoft Corporation Robust decoder
KR100686174B1 (ko) * 2005-05-31 2007-02-26 엘지전자 주식회사 오디오 에러 은닉 방법
JP4536621B2 (ja) * 2005-08-10 2010-09-01 株式会社エヌ・ティ・ティ・ドコモ 復号装置、および復号方法
US7610197B2 (en) 2005-08-31 2009-10-27 Motorola, Inc. Method and apparatus for comfort noise generation in speech communication systems
CN101268506B (zh) * 2005-09-01 2011-08-03 艾利森电话股份有限公司 处理编码实时数据的设备和方法
US8620644B2 (en) * 2005-10-26 2013-12-31 Qualcomm Incorporated Encoder-assisted frame loss concealment techniques for audio coding
KR100717058B1 (ko) * 2005-11-28 2007-05-14 삼성전자주식회사 고주파 성분 복원 방법 및 그 장치
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
US7457746B2 (en) 2006-03-20 2008-11-25 Mindspeed Technologies, Inc. Pitch prediction for packet loss concealment
US8798172B2 (en) * 2006-05-16 2014-08-05 Samsung Electronics Co., Ltd. Method and apparatus to conceal error in decoded audio signal
US7610195B2 (en) * 2006-06-01 2009-10-27 Nokia Corporation Decoding of predictively coded data using buffer adaptation
CN1983909B (zh) 2006-06-08 2010-07-28 华为技术有限公司 一种丢帧隐藏装置和方法
US8255213B2 (en) * 2006-07-12 2012-08-28 Panasonic Corporation Speech decoding apparatus, speech encoding apparatus, and lost frame concealment method
US7987089B2 (en) * 2006-07-31 2011-07-26 Qualcomm Incorporated Systems and methods for modifying a zero pad region of a windowed frame of an audio signal
US8015000B2 (en) * 2006-08-03 2011-09-06 Broadcom Corporation Classification-based frame loss concealment for audio signals
CN101361113B (zh) * 2006-08-15 2011-11-30 美国博通公司 丢包后的约束和受控解码
US8000960B2 (en) * 2006-08-15 2011-08-16 Broadcom Corporation Packet loss concealment for sub-band predictive coding based on extrapolation of sub-band audio waveforms
CN101155140A (zh) * 2006-10-01 2008-04-02 华为技术有限公司 音频流错误隐藏的方法、装置和系统
US7877253B2 (en) * 2006-10-06 2011-01-25 Qualcomm Incorporated Systems, methods, and apparatus for frame erasure recovery
EP2080194B1 (fr) 2006-10-20 2011-12-07 France Telecom Attenuation du survoisement, notamment pour la generation d'une excitation aupres d'un decodeur, en absence d'information
KR101292771B1 (ko) 2006-11-24 2013-08-16 삼성전자주식회사 오디오 신호의 오류은폐방법 및 장치
CN100578618C (zh) * 2006-12-04 2010-01-06 华为技术有限公司 一种解码方法及装置
KR100964402B1 (ko) * 2006-12-14 2010-06-17 삼성전자주식회사 오디오 신호의 부호화 모드 결정 방법 및 장치와 이를 이용한 오디오 신호의 부호화/복호화 방법 및 장치
US8688437B2 (en) * 2006-12-26 2014-04-01 Huawei Technologies Co., Ltd. Packet loss concealment for speech coding
US8275611B2 (en) 2007-01-18 2012-09-25 Stmicroelectronics Asia Pacific Pte., Ltd. Adaptive noise suppression for digital speech signals
KR20080075050A (ko) * 2007-02-10 2008-08-14 삼성전자주식회사 오류 프레임의 파라미터 갱신 방법 및 장치
GB0703275D0 (en) * 2007-02-20 2007-03-28 Skype Ltd Method of estimating noise levels in a communication system
JP4708446B2 (ja) * 2007-03-02 2011-06-22 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
JP5198477B2 (ja) 2007-03-05 2013-05-15 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 定常的な背景雑音の平滑化を制御するための方法及び装置
DE102007018484B4 (de) 2007-03-20 2009-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Senden einer Folge von Datenpaketen und Decodierer und Vorrichtung zum Decodieren einer Folge von Datenpaketen
EP1973254B1 (en) * 2007-03-22 2009-07-15 Research In Motion Limited Device and method for improved lost frame concealment
US8014519B2 (en) 2007-04-02 2011-09-06 Microsoft Corporation Cross-correlation based echo canceller controllers
EP1981170A1 (en) * 2007-04-13 2008-10-15 Global IP Solutions (GIPS) AB Adaptive, scalable packet loss recovery
JP5023780B2 (ja) * 2007-04-13 2012-09-12 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8005023B2 (en) 2007-06-14 2011-08-23 Microsoft Corporation Client-side echo cancellation for multi-party audio conferencing
CN101325537B (zh) 2007-06-15 2012-04-04 华为技术有限公司 一种丢帧隐藏的方法和设备
US8489396B2 (en) 2007-07-25 2013-07-16 Qnx Software Systems Limited Noise reduction with integrated tonal noise reduction
US20090055171A1 (en) * 2007-08-20 2009-02-26 Broadcom Corporation Buzz reduction for low-complexity frame erasure concealment
US20090154726A1 (en) 2007-08-22 2009-06-18 Step Labs Inc. System and Method for Noise Activity Detection
CN100524462C (zh) * 2007-09-15 2009-08-05 华为技术有限公司 对高带信号进行帧错误隐藏的方法及装置
CN101141644B (zh) * 2007-10-17 2010-12-08 清华大学 编码集成系统和方法与解码集成系统和方法
CN100585699C (zh) * 2007-11-02 2010-01-27 华为技术有限公司 一种音频解码的方法和装置
BRPI0818927A2 (pt) 2007-11-02 2015-06-16 Huawei Tech Co Ltd Método e aparelho para a decodificação de áudio
CN101430880A (zh) * 2007-11-07 2009-05-13 华为技术有限公司 一种背景噪声的编解码方法和装置
DE102008009719A1 (de) * 2008-02-19 2009-08-20 Siemens Enterprise Communications Gmbh & Co. Kg Verfahren und Mittel zur Enkodierung von Hintergrundrauschinformationen
WO2009110738A2 (ko) * 2008-03-03 2009-09-11 엘지전자(주) 오디오 신호 처리 방법 및 장치
FR2929466A1 (fr) 2008-03-28 2009-10-02 France Telecom Dissimulation d'erreur de transmission dans un signal numerique dans une structure de decodage hierarchique
EP2120412A1 (en) 2008-05-14 2009-11-18 SIDSA (Semiconductores Investigación) Y Diseño SA System and transceiver for DSL communications based on single carrier modulation, with efficient vectoring, capacity approaching channel coding structure and preamble insertion for agile channel adaption
US8737501B2 (en) 2008-06-13 2014-05-27 Silvus Technologies, Inc. Interference mitigation for devices with multiple receivers
ES2558229T3 (es) * 2008-07-11 2016-02-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y decodificador de audio para codificar tramas de señales de audio muestreadas
ES2683077T3 (es) 2008-07-11 2018-09-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada
MY159110A (en) * 2008-07-11 2016-12-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E V Audio encoder and decoder for encoding and decoding audio samples
PT2410521T (pt) * 2008-07-11 2018-01-09 Fraunhofer Ges Forschung Codificador de sinal de áudio, método para gerar um sinal de áudio e programa de computador
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
EP2144231A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
EP2146344B1 (en) * 2008-07-17 2016-07-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding/decoding scheme having a switchable bypass
EP2339577B1 (en) 2008-09-18 2018-03-21 Electronics and Telecommunications Research Institute Encoding apparatus and decoding apparatus for transforming between modified discrete cosine transform-based coder and hetero coder
KR101622950B1 (ko) 2009-01-28 2016-05-23 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 그 장치
US8676573B2 (en) 2009-03-30 2014-03-18 Cambridge Silicon Radio Limited Error concealment
US8718804B2 (en) 2009-05-05 2014-05-06 Huawei Technologies Co., Ltd. System and method for correcting for lost data in a digital audio signal
US8908882B2 (en) * 2009-06-29 2014-12-09 Audience, Inc. Reparation of corrupted audio signals
EP2460158A4 (en) * 2009-07-27 2013-09-04 METHOD AND APPARATUS FOR PROCESSING AUDIO SIGNAL
MY163358A (en) 2009-10-08 2017-09-15 Fraunhofer-Gesellschaft Zur Förderung Der Angenwandten Forschung E V Multi-mode audio signal decoder,multi-mode audio signal encoder,methods and computer program using a linear-prediction-coding based noise shaping
EP2489041B1 (en) 2009-10-15 2020-05-20 VoiceAge Corporation Simultaneous time-domain and frequency-domain noise shaping for tdac transforms
CN102044241B (zh) * 2009-10-15 2012-04-04 华为技术有限公司 一种实现通信系统中背景噪声的跟踪的方法和装置
US9076439B2 (en) * 2009-10-23 2015-07-07 Broadcom Corporation Bit error management and mitigation for sub-band coding
US9020812B2 (en) 2009-11-24 2015-04-28 Lg Electronics Inc. Audio signal processing method and device
CN102081926B (zh) * 2009-11-27 2013-06-05 中兴通讯股份有限公司 格型矢量量化音频编解码方法和系统
CN101763859A (zh) 2009-12-16 2010-06-30 深圳华为通信技术有限公司 音频数据处理方法、装置和多点控制单元
US9008329B1 (en) * 2010-01-26 2015-04-14 Audience, Inc. Noise reduction using multi-feature cluster tracker
US8428959B2 (en) * 2010-01-29 2013-04-23 Polycom, Inc. Audio packet loss concealment by transform interpolation
US8000968B1 (en) * 2011-04-26 2011-08-16 Huawei Technologies Co., Ltd. Method and apparatus for switching speech or audio signals
CN101937679B (zh) * 2010-07-05 2012-01-11 展讯通信(上海)有限公司 音频数据帧的错误掩盖方法及音频解码装置
CN101894558A (zh) * 2010-08-04 2010-11-24 华为技术有限公司 丢帧恢复方法、设备以及语音增强方法、设备和系统
EP2458585B1 (en) * 2010-11-29 2013-07-17 Nxp B.V. Error concealment for sub-band coded audio signals
KR20120080409A (ko) 2011-01-07 2012-07-17 삼성전자주식회사 잡음 구간 판별에 의한 잡음 추정 장치 및 방법
US8983833B2 (en) 2011-01-24 2015-03-17 Continental Automotive Systems, Inc. Method and apparatus for masking wind noise
PL2661745T3 (pl) * 2011-02-14 2015-09-30 Fraunhofer Ges Forschung Urządzenie i sposób do ukrywania błędów w zunifikowanym kodowaniu mowy i audio
ES2540051T3 (es) * 2011-04-15 2015-07-08 Telefonaktiebolaget Lm Ericsson (Publ) Método y un decodificador para la atenuación de regiones de señal reconstruidas con baja precisión
TWI435138B (zh) 2011-06-20 2014-04-21 Largan Precision Co 影像拾取光學系統
JP5817366B2 (ja) 2011-09-12 2015-11-18 沖電気工業株式会社 音声信号処理装置、方法及びプログラム
TWI585747B (zh) * 2011-10-21 2017-06-01 三星電子股份有限公司 訊框錯誤修補方法與裝置、音訊解碼方法與裝置
CN102750955B (zh) * 2012-07-20 2014-06-18 中国科学院自动化研究所 基于残差信号频谱重构的声码器
US9532139B1 (en) 2012-09-14 2016-12-27 Cirrus Logic, Inc. Dual-microphone frequency amplitude response self-calibration
TWI606440B (zh) 2012-09-24 2017-11-21 三星電子股份有限公司 訊框錯誤隱藏裝置
CN103714821A (zh) * 2012-09-28 2014-04-09 杜比实验室特许公司 基于位置的混合域数据包丢失隐藏
EP2757559A1 (en) 2013-01-22 2014-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for spatial audio object coding employing hidden objects for signal mixture manipulation
AU2014211486B2 (en) * 2013-01-29 2017-04-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Noise filling without side information for CELP-like coders
FR3004876A1 (fr) 2013-04-18 2014-10-24 France Telecom Correction de perte de trame par injection de bruit pondere.
BR112015031180B1 (pt) 2013-06-21 2022-04-05 Fraunhofer- Gesellschaft Zur Förderung Der Angewandten Forschung E.V Aparelho e método para gerar um formato espectral adaptativo de ruído de conforto
US20150024355A1 (en) 2013-07-18 2015-01-22 Quitbit, Inc. Lighter and method for monitoring smoking behavior
US10210871B2 (en) * 2016-03-18 2019-02-19 Qualcomm Incorporated Audio processing for temporally mismatched signals
CN110556116B (zh) * 2018-05-31 2021-10-22 华为技术有限公司 计算下混信号和残差信号的方法和装置

Also Published As

Publication number Publication date
CA2914869A1 (en) 2014-12-24
US20160104489A1 (en) 2016-04-14
CA2915014A1 (en) 2014-12-24
EP3011557B1 (en) 2017-05-03
JP2016527541A (ja) 2016-09-08
US11501783B2 (en) 2022-11-15
PT3011557T (pt) 2017-07-25
RU2016101521A (ru) 2017-07-26
RU2675777C2 (ru) 2018-12-24
US10679632B2 (en) 2020-06-09
ZA201600310B (en) 2018-05-30
US20200258530A1 (en) 2020-08-13
US10607614B2 (en) 2020-03-31
PT3011559T (pt) 2017-10-30
RU2016101600A (ru) 2017-07-26
WO2014202784A1 (en) 2014-12-24
TWI553631B (zh) 2016-10-11
EP3011563B1 (en) 2019-12-25
SG11201510508QA (en) 2016-01-28
RU2676453C2 (ru) 2018-12-28
CN105431903A (zh) 2016-03-23
SG11201510352YA (en) 2016-01-28
CN105359210B (zh) 2019-06-14
US20160111095A1 (en) 2016-04-21
US20210142809A1 (en) 2021-05-13
EP3011558B1 (en) 2017-07-26
MX351577B (es) 2017-10-18
KR20160022365A (ko) 2016-02-29
JP2016522453A (ja) 2016-07-28
PT3011563T (pt) 2020-03-31
HK1224424A1 (zh) 2017-08-18
MY181026A (en) 2020-12-16
CA2913578C (en) 2018-05-22
HK1224425A1 (zh) 2017-08-18
ES2644693T3 (es) 2017-11-30
RU2658128C2 (ru) 2018-06-19
JP6201043B2 (ja) 2017-09-20
PT3011558T (pt) 2017-10-05
TWI564884B (zh) 2017-01-01
US20160104497A1 (en) 2016-04-14
SG11201510519RA (en) 2016-01-28
CN105340007B (zh) 2019-05-31
US20180261230A1 (en) 2018-09-13
CN110265044B (zh) 2023-09-12
JP2016523381A (ja) 2016-08-08
CN110299147A (zh) 2019-10-01
CN110289005B (zh) 2024-02-09
ES2635027T3 (es) 2017-10-02
TW201508736A (zh) 2015-03-01
ES2780696T3 (es) 2020-08-26
CA2914869C (en) 2018-06-05
AU2014283198A1 (en) 2016-02-11
US9978377B2 (en) 2018-05-22
BR112015031606A2 (pt) 2017-07-25
AU2014283124A1 (en) 2016-02-11
PT3011561T (pt) 2017-07-25
AU2014283196A1 (en) 2016-02-11
ES2635555T3 (es) 2017-10-04
AU2014283123B2 (en) 2016-10-20
MY190900A (en) 2022-05-18
US20200258529A1 (en) 2020-08-13
MX347233B (es) 2017-04-19
US20160104487A1 (en) 2016-04-14
SG11201510353RA (en) 2016-01-28
US10854208B2 (en) 2020-12-01
CN110299147B (zh) 2023-09-19
EP3011561A1 (en) 2016-04-27
KR20160021295A (ko) 2016-02-24
PL3011559T3 (pl) 2017-12-29
KR101785227B1 (ko) 2017-10-12
US20180151184A1 (en) 2018-05-31
EP3011558A1 (en) 2016-04-27
US20180268825A1 (en) 2018-09-20
RU2016101605A (ru) 2017-07-26
EP3011557A1 (en) 2016-04-27
BR112015031178A2 (pt) 2017-07-25
US9997163B2 (en) 2018-06-12
TWI569262B (zh) 2017-02-01
SG11201510510PA (en) 2016-01-28
MX351576B (es) 2017-10-18
CA2914895A1 (en) 2014-12-24
WO2014202788A1 (en) 2014-12-24
PL3011557T3 (pl) 2017-10-31
EP3011561B1 (en) 2017-05-03
AU2014283123A1 (en) 2016-02-04
BR112015031178B1 (pt) 2022-03-22
KR101790902B1 (ko) 2017-10-26
AU2014283194B2 (en) 2016-10-20
PL3011563T3 (pl) 2020-06-29
US10867613B2 (en) 2020-12-15
CN105340007A (zh) 2016-02-17
EP3011563A1 (en) 2016-04-27
PL3011561T3 (pl) 2017-10-31
TW201508740A (zh) 2015-03-01
EP3011559B1 (en) 2017-07-26
PL3011558T3 (pl) 2017-12-29
BR112015031180B1 (pt) 2022-04-05
KR20160022363A (ko) 2016-02-29
JP2016532143A (ja) 2016-10-13
US20160104488A1 (en) 2016-04-14
CN105359209B (zh) 2019-06-14
MX2015016892A (es) 2016-04-07
AU2014283198B2 (en) 2016-10-20
CN110164459B (zh) 2024-03-26
TW201508739A (zh) 2015-03-01
MX2015018024A (es) 2016-06-24
HK1224076A1 (zh) 2017-08-11
BR112015031177A2 (pt) 2017-07-25
HK1224423A1 (zh) 2017-08-18
TW201508737A (zh) 2015-03-01
US11462221B2 (en) 2022-10-04
BR112015031180A2 (pt) 2017-07-25
ES2639127T3 (es) 2017-10-25
KR101787296B1 (ko) 2017-10-18
CN105378831B (zh) 2019-05-31
KR101788484B1 (ko) 2017-10-19
TWI575513B (zh) 2017-03-21
MY182209A (en) 2021-01-18
MX2015017126A (es) 2016-04-11
JP6214071B2 (ja) 2017-10-18
US20180308495A1 (en) 2018-10-25
MY170023A (en) 2019-06-25
JP6190052B2 (ja) 2017-08-30
MX351363B (es) 2017-10-11
AU2014283194A1 (en) 2016-02-04
CN110265044A (zh) 2019-09-20
CA2914895C (en) 2018-06-12
CA2916150C (en) 2019-06-18
US20210098003A1 (en) 2021-04-01
WO2014202790A1 (en) 2014-12-24
US10672404B2 (en) 2020-06-02
KR101790901B1 (ko) 2017-10-26
BR112015031343A2 (pt) 2017-07-25
MY187034A (en) 2021-08-27
TW201508738A (zh) 2015-03-01
WO2014202789A1 (en) 2014-12-24
CN110164459A (zh) 2019-08-23
EP3011559A1 (en) 2016-04-27
CN110289005A (zh) 2019-09-27
US9978376B2 (en) 2018-05-22
RU2666250C2 (ru) 2018-09-06
JP6196375B2 (ja) 2017-09-13
RU2016101604A (ru) 2017-07-26
CN105431903B (zh) 2019-08-23
CN105378831A (zh) 2016-03-02
RU2665279C2 (ru) 2018-08-28
US9978378B2 (en) 2018-05-22
WO2014202786A1 (en) 2014-12-24
JP6360165B2 (ja) 2018-07-18
AU2014283124B2 (en) 2016-10-20
HK1224009A1 (zh) 2017-08-11
CN105359209A (zh) 2016-02-24
AU2014283196B2 (en) 2016-10-20
US11776551B2 (en) 2023-10-03
KR20160022886A (ko) 2016-03-02
US9916833B2 (en) 2018-03-13
US20180233153A1 (en) 2018-08-16
CA2916150A1 (en) 2014-12-24
MX355257B (es) 2018-04-11
JP2016526704A (ja) 2016-09-05
TWI587290B (zh) 2017-06-11
CA2915014C (en) 2020-03-31
US20200312338A1 (en) 2020-10-01
CN105359210A (zh) 2016-02-24
CA2913578A1 (en) 2014-12-24
RU2016101469A (ru) 2017-07-24
MX2015017261A (es) 2016-09-22
US11869514B2 (en) 2024-01-09

Similar Documents

Publication Publication Date Title
US11776551B2 (en) Apparatus and method for improved signal fade out in different domains during error concealment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant