KR20200013253A - 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치 - Google Patents

프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치 Download PDF

Info

Publication number
KR20200013253A
KR20200013253A KR1020200007381A KR20200007381A KR20200013253A KR 20200013253 A KR20200013253 A KR 20200013253A KR 1020200007381 A KR1020200007381 A KR 1020200007381A KR 20200007381 A KR20200007381 A KR 20200007381A KR 20200013253 A KR20200013253 A KR 20200013253A
Authority
KR
South Korea
Prior art keywords
frame
energy
error
current frame
signal
Prior art date
Application number
KR1020200007381A
Other languages
English (en)
Other versions
KR102194558B1 (ko
Inventor
성호상
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20200013253A publication Critical patent/KR20200013253A/ko
Priority to KR1020200177444A priority Critical patent/KR102328123B1/ko
Application granted granted Critical
Publication of KR102194558B1 publication Critical patent/KR102194558B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Error Detection And Correction (AREA)

Abstract

프레임 에러 은닉방법은 에러 프레임을 이루는 제1 복수개의 대역들로부터 구성된 복수개의 그룹에 대하여, 그룹 단위로 회귀분석을 수행하여 파라미터를 예측하는 단계, 및 그룹별로 예측된 파라미터를 이용하여 상기 에러 프레임의 에러를 은닉하는 단계를 포함한다.

Description

프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치 {Frame error concealment method and apparatus, and audio decoding method and apparatus}
본 발명은 프레임 에러 은닉에 관한 것으로서, 보다 구체적으로는, 주파수 도메인에서 저복잡도로 추가적인 지연없이, 신호의 특성에 적응적으로 에러 프레임을 보다 정확하게 복원하기 위한 프레임 에러 은닉방법 및 장치, 오디오 복호화방법 및 장치와 이를 채용하는 멀티미디어 기기에 관한 것이다.
유무선 망을 통하여 부호화된 오디오 신호를 전송함에 있어서, 전송상 에러로 인해 일부 패킷이 손실되거나 왜곡되는 경우가 발생하게 되면 복호화된 오디오 신호의 일부 프레임에 에러가 발생될 수 있다. 이 경우 프레임에 발생된 에러를 적절히 처리하지 않으면 에러가 발생된 프레임(이하 에러 프레임이라 약함) 구간에서 복호화된 오디오 신호의 음질이 저하될 수 있다.
프레임 에러를 은닉하기 위한 방법의 예로는, 에러 프레임에서 신호의 진폭을 감소시킴으로써 에러가 출력 신호에 미치는 영향을 약화시키는 묵음(muting)법, 에러 프레임의 이전 정상 프레임(Previous Good Frame)을 반복하여 재생함으로써 에러 프레임의 신호를 복원하는 반복(repetition)법, 이전 정상 프레임(PGF)과 다음 정상 프레임(Next Good Frame, NGF)의 파라미터를 보간하여 에러 프레임의 파라미터를 예측하는 보간법(interpolation), 이전 정상 프레임(PGF)의 파라미터를 보외하여 에러 프레임의 파라미터를 구하는 보외법(extrapolation), 이전 정상 프레임(PGF)의 파라미터를 회귀분석하여 에러 프레임의 파라미터를 구하는 회귀분석법(Regression Analysis) 등이 있다.
그런데, 기존에는 입력 신호의 특성에 상관없이 동일한 방식을 획일적으로 적용하여 에러 프레임을 복원하였기 때문에 프레임 에러가 효율적으로 은닉되지 못하여 음질이 저하되는 문제가 있다. 그리고, 보간법의 경우, 프레임 에러를 효율적으로 은닉할 수 있으나, 한 프레임이라는 추가적인 지연을 필요로 하므로, 지연이 민감한 통신용 코덱에서는 채택하기가 적절하지 않다. 또한, 회귀분석법의 경우, 기존의 에너지를 어느 정도 고려한 은닉이 가능하지만, 신호가 점차 커지거나 신호의 변동이 심한 곳에서는 효율저하가 발생한다. 또한, 회귀분석법은 주파수 도메인의 각 대역별로 회귀분석을 실시하게 되면, 각 대역의 순간적인 에너지 변화로 인해 의도하지 않은 신호가 예측되는 경우도 있다.
본 발명이 해결하고자 하는 과제는 주파수 도메인에서 저복잡도로 추가적인 지연없이, 신호의 특성에 적응적으로 에러 프레임을 보다 정확하게 복원하기 위한 프레임 에러 은닉방법 및 장치를 제공하는데 있다.
본 발명이 해결하고자 하는 다른 과제는 주파수 도메인에서 저복잡도로 추가적인 지연없이, 신호의 특성에 적응적으로 에러 프레임을 보다 정확하게 복원함으로써, 프레임 에러로 인한 음질 저하를 최소화시킬 수 있는 오디오 복호화방법 및 장치, 그 기록매체와 이를 채용하는 멀티미디어 기기를 제공하는데 있다.
본 발명이 해결하고자 하는 다른 과제는 프레임 에러 은닉방법 혹은 오디오 복호화방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 있다.
본 발명이 해결하고자 하는 다른 과제는 프레임 에러 은닉장치 혹은 오디오복호화장치를 채용하는 멀티미디어 기기를 제공하는데 있다.
상기 과제를 달성하기 위한 본 발명의 일실시예에 따른 프레임 에러 은닉방법은 에러 프레임을 이루는 제1 복수개의 대역들로부터 구성된 복수개의 그룹에 대하여, 그룹 단위로 회귀분석을 수행하여 파라미터를 예측하는 단계; 및 그룹별로 예측된 파라미터를 이용하여 상기 에러 프레임의 에러를 은닉하는 단계를 포함할 수 있다.
상기 과제를 달성하기 위한 본 발명의 일실시예에 따른 오디오 복호화방법은 정상 프레임에 대하여 복호화를 수행하여 스펙트럼 계수를 획득하는 단계; 에러 프레임을 이루는 제1 복수개의 대역들로부터 구성된 복수개의 그룹에 대하여, 그룹 단위로 회귀분석을 수행하여 파라미터를 예측하고, 그룹별로 예측된 파라미터를 이용하여 상기 에러 프레임의 스펙트럼 계수를 획득하는 단계; 및 상기 정상 프레임 혹은 상기 에러 프레임의 복호화된 스펙트럼 계수에 대하여 시간 도메인으로 변환하고, 오버랩 및 애드 처리를 수행하여 시간 도메인의 신호로 복원하는 단계를 포함할 수 있다.
급격한 신호변동을 smoothing 시켜주며, 주파수 도메인에서 저복잡도로 추가적인 지연없이, 신호의 특성 특히, transient 인 특성 및 버스트 에러구간에 적응적으로 에러 프레임을 보다 정확하게 복원할 수 있다.
도 1a 및 도 1b는 본 발명이 적용될 수 있는 오디오 부호화장치 및 복호화장치의 일예에 따른 구성을 각각 나타낸 블록도이다.
도 2a 및 도 2b는 본 발명이 적용될 수 있는 오디오 부호화장치 및 복호화장치의 다른 예에 따른 구성을 각각 나타낸 블록도이다.
도 3a 및 도 3b는 본 발명이 적용될 수 있는 오디오 부호화장치 및 복호화장치의 다른 예에 따른 구성을 각각 나타낸 블록도이다.
도 4a 및 도 4b는 본 발명이 적용될 수 있는 오디오 부호화장치 및 복호화장치의 다른 예에 따른 구성을 각각 나타낸 블록도이다.
도 5는 본 발명의 일실시예에 따른 주파수 도메인 복호화장치의 구성을 나타낸 블록도이다.
도 6은 본 발명의 일실시예에 따른 스펙트럼 복호화부의 구성을 나타낸 블록도이다.
도 7은 본 발명의 일실시예에 따른 프레임 에러 은닉부의 구성을 나타낸 블록도이다.
도 8은 본 발명의 일실시예에 따른 메모리 업데이트부의 구성을 나타낸 블록도이다
도 9는 본 발명에 적용된 대역분할의 예를 나타낸 것이다.
도 10은 본 발명에 적용된 선형 회귀분석과 비선형 회귀분석의 개념을 나타낸 것이다.
도 11은 본 발명에서 회귀분석을 적용하기 위하여 그루핑된 서브밴드 구조의 일예를 나타낸 것이다.
도 12는 7.6kHz까지 지원하는 광대역(Wideband)에 대하여 회귀분석을 적용하기 위하여 그루핑된 서브밴드 구조의 일예를 나타낸 것이다.
도 13은 13.6kHz까지 지원하는 초광대역(Super-wideband)에 대하여 회귀분석을 적용하기 위하여 그루핑된 서브밴드 구조의 일예를 나타낸 것이다.
도 14는 20kHz까지 지원하는 전대역(Fullband)에 대하여 회귀분석을 적용하기 위하여 그루핑된 서브밴드 구조의 일예를 나타낸 것이다.
도 15a 내지 도 15c는 16kHz까지 지원하며 대역확장(BWE)을 사용하는 경우, 초광대역(Super-wideband)에 대하여 회귀분석을 적용하기 위하여 그루핑된 서브밴드 구조의 예들을 나타낸 것이다.
도 16a 내지 도 16c는 다음 정상 프레임의 시간 신호를 이용한 오버랩 앤드 애드 방식의 예들을 나타낸 것이다.
도 17은 본 발명의 일실시예에 따른 멀티미디어 기기의 구성을 나타낸 블록도이다.
도 18은 본 발명의 다른 실시예에 따른 멀티미디어 기기의 구성을 나타낸 블록도이다.
본 발명은 다양한 변환을 가할 수 있고 여러가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들이 용어들에 의해 한정되는 것은 아니다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 본 발명에서 사용한 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나 이는 당 분야에 종사하는 기술자의 의도, 판례, 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 본 발명의 실시예들을 첨부 도면을 참조하여 상세히 설명하기로 한다.
도 1a 및 도 1b는 본 발명이 적용될 수 있는 오디오 부호화장치 및 복호화장치의 일예에 따른 구성을 각각 나타낸 블록도이다.
도 1a에 도시된 오디오 부호화장치(110)는 전처리부(112), 주파수도메인 부호화부(114), 및 파라미터 부호화부(116)을 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(미도시)로 구현될 수 있다.
도 1a에 있어서, 전처리부(112)는 입력신호에 대하여 필터링 혹은 다운샘플링 등을 수행할 수 있으나, 이에 한정되는 것은 아니다. 입력신호는 음성신호, 음악신호 흑은 음성과 음악이 혼합된 신호를 포함할 수 있다. 이하에서는 설명의 편의를 위하여 오디오신호로 지칭하기로 한다.
주파수도메인 부호화부(114)는 전처리부(112)로부터 제공되는 오디오 신호에 대하여 시간-주파수 변환을 수행하고, 오디오 신호의 채널 수, 부호화대역 및 비트율에 대응하여 부호화 툴을 선택하고, 선택된 부호화 툴을 이용하여 오디오 신호에 대한 부호화를 수행한다. 시간-주파수 변환은 MDCT 혹은 FFT를 사용하나, 이에 한정되는 것은 아니다. 여기서, 주어진 비트수에 따라서, 충분한 경우 전체 대역에 대하여 일반적인 변환 부호화방식을 적용하며, 충분하지 않은 경우 일부 대역에 대해서는 대역확장방식을 적용할 수 있다. 한편, 오디오 신호가 스테레오 혹은 멀티채널인 경우, 주어진 비트수에 따라서, 충분한 경우 각 채널별로 부호화하고, 충분하지 않은 경우 다운믹싱방식을 적용할 수 있다. 주파수도메인 부호화(114)로부터는 부호화된 스펙트럼 계수가 생성된다.
파라미터 부호화부(116)는 주파수도메인 부호화부(114)로부터 제공되는 부호화된 스펙트럼 계수로부터 파라미터를 추출하고, 추출된 파라미터를 부호화한다. 파라미터는 서브밴드별로 추출될 수 있으며, 각 서브밴드는 스펙트럼 계수들을 그루핑한 단위로서, 임계대역을 반영하여 균일 혹은 비균일 길이를 가질 수 있다. 비균일 길이를 가지는 경우, 저주파수 대역에 존재하는 서브밴드의 경우 고주파수 대역에서와 비교하여 상대적으로 적은 길이를 가진다. 한 프레임에 포함되는 서브밴드의 개수 및 길이는 코덱 알고리즘에 따라서 달라지며 부호화 성능에 영향을 미칠 수 있다. 한편, 파라미터는 서브밴드의 스케일팩터, 파워, 평균 에너지, 혹은 norm을 예로 들 수 있으나, 이에 한정되는 것은 아니다. 부호화결과 얻어지는 스펙트럼 계수와 파라미터는 비트스트림을 형성하며, 채널을 통하여 패킷 형태로 전송되거나 저장매체에 저장될 수 있다.
도 1b에 도시된 오디오 복호화장치(130)는 파라미터 복호화부(132), 주파수도메인 복호화부(134), 및 후처리부(136)을 포함할 수 있다. 여기서, 주파수도메인 복호화부(134)는 프레임 에러 은닉 알고리즘을 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(미도시)로 구현될 수 있다.
도 1b에 있어서, 파라미터 복호화부(132)는 패킷 형태로 전송되는 비트스트림으로부터 파라미터를 복호화하고, 복호화된 파라미터로부터 프레임 단위로 에러가 발생하였는지를 체크할 수 있다. 에러 체크는 공지된 다양한 방법을 사용할 수 있으며, 현재 프레임이 정상 프레임인지 에러 프레임인지에 대한 정보를 주파수도메인 복호화부(134)로 제공한다.
주파수도메인 복호화부(134)는 현재 프레임이 정상 프레임인 경우 일반적인 변환 복호화과정을 통하여 복호화를 수행하여 합성된 스펙트럼 계수를 생성하며, 에러 프레임인 경우 주파수 도메인에서의 프레임 에러 은닉 알고리즘을 통하여 이전 정상 프레임의 스펙트럼 계수를 스케일링하여 합성된 스펙트럼 계수를 생성할 수 있다. 주파수도메인 복호화부(134)는 합성된 스펙트럼 계수에 대하여 주파수-시간 변환을 수행하여 시간도메인 신호를 생성할 수 있다.
후처리부(136)는 주파수도메인 복호화부(134)로부터 제공되는 시간도메인 신호에 대하여 필터링 혹은 업샘플링 등을 수행할 수 있으나, 이에 한정되는 것은 아니다. 후처리부(136)는 출력신호로서 복원된 오디오신호를 제공한다.
도 2a 및 도 2b는 본 발명이 적용될 수 있는 오디오 부호화장치 및 복호화장치의 다른 예에 따른 구성을 각각 나타낸 블록도로서, 스위칭 구조를 가진다.
도 2a에 도시된 오디오 부호화장치(210)는 전처리부(212), 모드결정부(213),주파수도메인 부호화부(214), 시간도메인 부호화부(215) 및 파라미터 부호화부(216)을 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(미도시)로 구현될 수 있다.
도 2a에 있어서, 전처리부(212)는 도 1a의 전처리부(112)와 실질적으로 동일하므로 설명을 생략하기로 한다.
모드결정부(213)는 입력신호의 특성을 참조하여 부호화 모드를 결정할 수 있다. 입력신호의 특성에 따라서 현재 프레임이 음성모드인지 또는 음악모드인지 여부를 결정할 수 있고, 또한 현재 프레임에 효율적인 부호화 모드가 시간도메인 모드인지 아니면 주파수도메인 모드인지에 대하여 결정할 수 있다. 여기서, 프레임의 단구간 특성 혹은 복수의 프레임들에 대한 장구간 특성 등을 이용하여 입력신호의 특성을 파악할 수 있으나, 이에 한정되는 것은 아니다. 모드결정부(213)는 입력신호의 특성이 음악모드 혹은 주파수도메인 모드에 해당하는 경우에는 전처리부(212)의 출력신호를 주파수도메인 부호화부(214)로, 입력신호의 특성이 음성모드 혹은 시간도메인 모드에 시간도메인 부호화부(215)로 제공한다.
주파수도메인 부호화부(214)는 도 1a의 주파수도메인 부호화부(114)와 실질적으로 동일하므로 설명을 생략하기로 한다.
시간도메인 부호화부(215)는 전처리부(212)로부터 제공되는 오디오 신호에 대하여 CELP(Code Excited Linear Prediction) 부호화를 수행할 수 있다. 구체적으로, ACELP(Algebraic CELP)를 사용할 수 있으나, 이에 한정되는 것은 아니다. 시간도메인 부호화(215)로부터는 부호화된 스펙트럼 계수가 생성된다.
파라미터 부호화부(216)는 주파수도메인 부호화부(214) 혹은 시간도메인 부호화부(215)로부터 제공되는 부호화된 스펙트럼 계수로부터 파라미터를 추출하고, 추출된 파라미터를 부호화한다. 파라미터 부호화부(216)는 도 1a의 파라미터 부호화부(116)와 실질적으로 동일하므로 설명을 생략하기로 한다. 부호화결과 얻어지는 스펙트럼 계수와 파라미터는 부호화 모드 정보와 함께 비트스트림을 형성하며, 채널을 통하여 패킷 형태로 전송되거나 저장매체에 저장될 수 있다.
도 2b에 도시된 오디오 복호화장치(230)는 파라미터 복호화부(232), 모드결정부(233), 주파수도메인 복호화부(234), 시간도메인 복호화부(235) 및 후처리부(236)을 포함할 수 있다. 여기서, 주파수도메인 복호화부(234)와 시간도메인 복호화부(235)는 각각 해당 도메인에서의 프레임 에러 은닉 알고리즘을 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(미도시)로 구현될 수 있다.
도 2b에 있어서, 파라미터 복호화부(232)는 패킷 형태로 전송되는 비트스트림으로부터 파라미터를 복호화하고, 복호화된 파라미터로부터 프레임 단위로 에러가 발생하였는지를 체크할 수 있다. 에러 체크는 공지된 다양한 방법을 사용할 수 있으며, 현재 프레임이 정상 프레임인지 에러 프레임인지에 대한 정보를 주파수도메인 복호화부(234) 혹은 시간도메인 복호화부(235)로 제공한다.
모드결정부(233)는 비트스트림에 포함된 부호화 모드 정보를 체크하여 현재 프레임을 주파수도메인 복호화부(234) 혹은 시간도메인 복호화부(235)로 제공한다.
주파수도메인 복호화부(234)는 부호화 모드가 음악모드 혹은 주파수도메인 모드인 경우 동작하며, 현재 프레임이 정상 프레임인 경우 일반적인 변환 복호화과정을 통하여 복호화를 수행하여 합성된 스펙트럼 계수를 생성한다. 한편, 현재 프레임이 에러 프레임이고, 이전 프레임의 부호화 모드가 음악모드 혹은 주파수도메인 모드인 경우 주파수 도메인에서의 프레임 에러 은닉 알고리즘을 통하여 이전 정상 프레임의 스펙트럼 계수를 스케일링하여 합성된 스펙트럼 계수를 생성할 수 있다. 주파수도메인 복호화부(234)는 합성된 스펙트럼 계수에 대하여 주파수-시간 변환을 수행하여 시간도메인 신호를 생성할 수 있다.
시간도메인 복호화부(235)는 부호화 모드가 음성모드 혹은 시간도메인 모드인 경우 동작하며, 현재 프레임이 정상 프레임인 경우 일반적인 CELP 복호화과정을 통하여 복호화를 수행하여 시간도메인 신호를 생성한다. 한편, 현재 프레임이 에러 프레임이고, 이전 프레임의 부호화 모드가 음성모드 혹은 시간도메인 모드인 경우 시간 도메인에서의 프레임 에러 은닉 알고리즘을 수행할 수 있다.
후처리부(236)는 주파수도메인 복호화부(234) 혹은 시간도메인 복호화부(235)로부터 제공되는 시간도메인 신호에 대하여 필터링 혹은 업샘플링 등을 수행할 수 있으나, 이에 한정되는 것은 아니다. 후처리부(236)는 출력신호로서 복원된 오디오신호를 제공한다.
도 3a 및 도 3b는 본 발명이 적용될 수 있는 오디오 부호화장치 및 복호화장치의 다른 예에 따른 구성을 각각 나타낸 블록도로서, 스위칭 구조를 가진다.
도 3a에 도시된 오디오 부호화장치(310)는 전처리부(312), LP(Linear Prediction) 분석부(313), 모드결정부(314), 주파수도메인 여기부호화부(315), 시간도메인 여기부호화부(316) 및 파라미터 부호화부(317)을 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(미도시)로 구현될 수 있다.
도 3a에 있어서, 전처리부(312)는 도 1a의 전처리부(112)와 실질적으로 동일하므로 설명을 생략하기로 한다.
LP 분석부(313)는 입력신호에 대하여 LP 분석을 수행하여 LP 계수를 추출하고, 추출된 LP 계수로부터 여기신호를 생성한다. 여기신호는 부호화 모드에 따라서 주파수도메인 여기부호화부(315)와 시간도메인 여기부호화부(316) 중 하나로 제공될 수 있다.
모드결정부(314)는 도 2b의 모드결정부(213)와 실질적으로 동일하므로 설명을 생략하기로 한다.
주파수도메인 여기부호화부(315)는 부호화 모드가 음악모드 혹은 주파수도메인 모드인 경우 동작하며, 입력신호가 여기신호인 것을 제외하고는 도 1a의 주파수도메인 부호화부(114)와 실질적으로 동일하므로 설명을 생략하기로 한다.
시간도메인 여기부호화부(316)는 부호화 모드가 음성모드 혹은 시간도메인 모드인 경우 동작하며, 입력신호가 여기신호인 것을 제외하고는 도 2a의 시간도메인 부호화부(215)와 실질적으로 동일하므로 설명을 생략하기로 한다.
파라미터 부호화부(317)는 주파수도메인 여기부호화부(315) 혹은 시간도메인 여기부호화부(316)로부터 제공되는 부호화된 스펙트럼 계수로부터 파라미터를 추출하고, 추출된 파라미터를 부호화한다. 파라미터 부호화부(317)는 도 1a의 파라미터 부호화부(116)와 실질적으로 동일하므로 설명을 생략하기로 한다. 부호화결과 얻어지는 스펙트럼 계수와 파라미터는 부호화 모드 정보와 함께 비트스트림을 형성하며, 채널을 통하여 패킷 형태로 전송되거나 저장매체에 저장될 수 있다.
도 3b에 도시된 오디오 복호화장치(330)는 파라미터 복호화부(332), 모드결정부(333), 주파수도메인 여기복호화부(334), 시간도메인 여기복호화부(335), LP 합성부(336) 및 후처리부(337)을 포함할 수 있다. 여기서, 주파수도메인 여기복호화부(334)와 시간도메인 여기복호화부(335)는 각각 해당 도메인에서의 프레임 에러 은닉 알고리즘을 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(미도시)로 구현될 수 있다.
도 3b에 있어서, 파라미터 복호화부(332)는 패킷 형태로 전송되는 비트스트림으로부터 파라미터를 복호화하고, 복호화된 파라미터로부터 프레임 단위로 에러가 발생하였는지를 체크할 수 있다. 에러 체크는 공지된 다양한 방법을 사용할 수 있으며, 현재 프레임이 정상 프레임인지 에러 프레임인지에 대한 정보를 주파수도메인 여기복호화부(334) 혹은 시간도메인 여기복호화부(335)로 제공한다.
모드결정부(333)는 비트스트림에 포함된 부호화 모드 정보를 체크하여 현재 프레임을 주파수도메인 여기복호화부(334) 혹은 시간도메인 여기복호화부(335)로 제공한다.
주파수도메인 여기복호화부(334)는 부호화 모드가 음악모드 혹은 주파수도메인 모드인 경우 동작하며, 현재 프레임이 정상 프레임인 경우 일반적인 변환 복호화과정을 통하여 복호화를 수행하여 합성된 스펙트럼 계수를 생성한다. 한편, 현재 프레임이 에러 프레임이고, 이전 프레임의 부호화 모드가 음악모드 혹은 주파수도메인 모드인 경우 주파수 도메인에서의 프레임 에러 은닉 알고리즘을 통하여 이전 정상 프레임의 스펙트럼 계수를 스케일링하여 합성된 스펙트럼 계수를 생성할 수 있다. 주파수도메인 여기복호화부(334)는 합성된 스펙트럼 계수에 대하여 주파수-시간 변환을 수행하여 시간도메인 신호인 여기신호를 생성할 수 있다.
시간도메인 여기복호화부(335)는 부호화 모드가 음성모드 혹은 시간도메인 모드인 경우 동작하며, 현재 프레임이 정상 프레임인 경우 일반적인 CELP 복호화과정을 통하여 복호화를 수행하여 시간도메인 신호인 여기신호를 생성한다. 한편, 현재 프레임이 에러 프레임이고, 이전 프레임의 부호화 모드가 음성모드 혹은 시간도메인 모드인 경우 시간 도메인에서의 프레임 에러 은닉 알고리즘을 수행할 수 있다.
LP 합성부(336)는 주파수도메인 여기복호화부(334) 혹은 시간도메인 여기복호화부(335)로부터 제공되는 여기신호에 대하여 LP 합성을 수행하여 시간도메인 신호를 생성한다.
후처리부(337)는 LP 합성부(336)로부터 제공되는 시간도메인 신호에 대하여 필터링 혹은 업샘플링 등을 수행할 수 있으나, 이에 한정되는 것은 아니다. 후처리부(337)는 출력신호로서 복원된 오디오신호를 제공한다.
도 4a 및 도 4b는 본 발명이 적용될 수 있는 오디오 부호화장치 및 복호화장치의 다른 예에 따른 구성을 각각 나타낸 블록도로서, 스위칭 구조를 가진다.
도 4a에 도시된 오디오 부호화장치(410)는 전처리부(412), 모드결정부(413), 주파수도메인 부호화부(414), LP 분석부(415), 주파수도메인 여기부호화부(416), 시간도메인 여기부호화부(417) 및 파라미터 부호화부(418)을 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(미도시)로 구현될 수 있다. 도 4a에 도시된 오디오 부호화장치(410)는 도 2a의 오디오 부호화장치(210)와 도 3a의 오디오 부호화장치(310)를 결합한 것으로 볼 수 있으므로, 공통되는 부분의 동작 설명은 생략하는 한편, 모드결정부(413)의 동작에 대하여 설명하기로 한다.
모드결정부(413)는 입력신호의 특성 및 비트율을 참조하여 입력신호의 부호화모드를 결정할 수 있다. 모드결정부(413)는 입력신호의 특성에 따라서 현재 프레임이 음성모드인지 또는 음악모드인지에 따라서, 또한 현재 프레임에 효율적인 부호화 모드가 시간도메인 모드인지 아니면 주파수도메인 모드인지에 따라서 CELP 모드와 그외의 모드로 결정할 수 있다. 만약, 입력신호의 특성이 음성모드인 경우에는 CELP 모드로 결정하고, 음악모드이면서 고비트율인 경우 FD 모드로 결정하고, 음악모드이면서 저비트율인 경우 오디오 모드로 결정할 수 있다. 모드결정부(413)는 FD 모드인 경우 입력신호를 주파수도메인 부호화부(414)로, 오디오 모드인 경우 LP 분석부(415)를 통하여 주파수도메인 여기부호화부(416)로, CELP 모드인 경우 LP 분석부(415)를 통하여 시간도메인 여기부호화부(417)로 제공할 수 있다.
주파수도메인 부호화부(414)는 도 1a의 오디오 부호화장치(110)의 주파수도메인 부호화부(114) 혹은 도 2a의 오디오 부호화장치(210)의 주파수도메인 부호화부(214)에, 주파수도메인 여기부호화부(416) 혹은 시간도메인 여기부호화부(417는)는 도 3a의 오디오 부호화장치(310)의 주파수도메인 여기부호화부(315) 혹은 시간도메인 여기부호화부(316)에 대응될 수 있다.
도 4b에 도시된 오디오 복호화장치(430)는 파라미터 복호화부(432), 모드결정부(433), 주파수도메인 복호화부(434), 주파수도메인 여기복호화부(435), 시간도메인 여기복호화부(436), LP 합성부(437) 및 후처리부(438)를 포함할 수 있다. 여기서, 주파수도메인 복호화부(434), 주파수도메인 여기복호화부(435)와 시간도메인 여기복호화부(436)는 각각 해당 도메인에서의 프레임 에러 은닉 알고리즘을 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(미도시)로 구현될 수 있다. 도 4b에 도시된 오디오 복호화장치(430)는 도 2b의 오디오 복호화장치(230)와 도 3b의 오디오 복호화장치(330)를 결합한 것으로 볼 수 있으므로, 공통되는 부분의 동작 설명은 생략하는 한편, 모드결정부(433)의 동작에 대하여 설명하기로 한다.
모드결정부(433)는 비트스트림에 포함된 부호화 모드 정보를 체크하여 현재 프레임을 주파수도메인 복호화부(434), 주파수도메인 여기복호화부(435) 혹은 시간도메인 여기복호화부(436)로 제공한다.
주파수도메인 복호화부(434)는 도 1b의 오디오 부호화장치(130)의 주파수도메인 복호화부(134) 혹은 도 2b의 오디오 복호화장치(230)의 주파수도메인 복호화부(234)에, 주파수도메인 여기복호화부(435) 혹은 시간도메인 여기복호화부(436)는 도 3b의 오디오 복호화장치(330)의 주파수도메인 여기복호화부(334) 혹은 시간도메인 여기복호화부(335)에 대응될 수 있다.
도 5는 본 발명의 일실시예에 따른 주파수 도메인 복호화장치의 구성을 나타낸 블록도로서, 도 2b의 오디오 복호화장치(230)의 주파수도메인 복호화부(234)와 도 3b의 오디오 복호화장치(330)의 주파수도메인 여기부호화부(315)에 대응될 수 있다.
도 5에 도시된 주파수 도메인 복호화장치(500)는 오류은닉부(510), 스펙트럼 복호화부(530), 메모리 갱신부(550), 역변환부(570) 및 오버랩 앤드 애드부(590)을 포함할 수 있다. 메모리 갱신부(550)에 내장되는 메모리(미도시)를 제외한 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(미도시)로 구현될 수 있다.
도 5에 있어서, 먼저 복호화된 파라미터로부터 현재 프레임에 에러가 발생되지 않은 것으로 판단되면, 스펙트럼 복호화부(530), 메모리 갱신부(550), 역변환부(570) 및 오버랩 앤드 애드부(590)를 거쳐 복호화과정이 수행되어 최종 시간 도메인 신호를 생성할 수 있다. 구체적으로, 스펙트럼 복호화부(530)는 복호화된 파라미터를 이용하여 스펙트럼 복호화를 수행하여 스펙트럼 계수를 합성할 수 있다. 메모리 갱신부(550)는 정상 프레임인 현재 프레임에 대하여, 합성된 스펙트럼 계수, 복호화된 파라미터, 파라미터를 이용하여 얻어진 정보, 현재까지 연속된 에러프레임의 개수, 이전 프레임의 특성 (디코더에서 합성된 신호 분석을 통한 신호 특성, 예, 트랜지언트 특성, Normal, stationary 특성 등) 및 이전 프레임의 type 정보 (인코더에서 전송된 정보, 예, 트랜지언트 프레임, Normal 프레임 등) 등을 다음 프레임을 위하여 갱신할 수 있다. 역변환부(570)는 합성된 스펙트럼 계수에 대하여 주파수-시간 변환을 수행하여 시간 도메인 신호를 생성할 수 있다. 오버랩 앤드 애드부(590)는 이전 프레임의 시간 도메인 신호를 이용하여 오버랩 앤드 애드 처리를 수행하고, 그 결과 현재 프레임에 대한 최종 시간 도메인 신호를 생성할 수 있다.
한편, 복호화된 파라미터로부터 현재 프레임에 에러가 발생된 것으로 판단되면, 복호화된 파라미터 중 예를 들어 BFI(Bad Frame Indicator)가 1로 설정되어 에러 프레임인 현재 프레임에 대해서는 아무런 정보가 존재하지 않게 된다. 이 경우, 이전 프레임의 복호화 모드를 체크하여 주파수 도메인인 경우, 현재 프레임에 대하여 주파수 도메인에서의 에러 은닉 알고리즘을 수행할 수 있다.
즉, 오류 은닉부(510)는 현재 프레임이 에러 프레임이고, 이전 프레임의 복호화 모드가 주파수 도메인인 경우 동작할 수 있다. 오류 은닉부(510)는 메모리 갱신부(550)에 저장된 정보를 이용하여 현재 프레임의 스펙트럼 계수를 복원할 수 있다. 현재 프레임의 복원된 스펙트럼 계수는 스펙트럼 복호화부(530), 메모리 갱신부(550), 역변환부(570) 및 오버랩 앤드 애드부(590)를 거쳐 복호화과정이 수행되어 최종 시간 도메인 신호를 생성할 수 있다.
여기서, 오버랩 앤드 애드부(590)는 현재 프레임이 에러 프레임, 이전 프레임이 정상 프레임이고 복호화 모드가 주파수 도메인이거나, 현재 프레임 및 이전 프레임이 정상 프레임이고 복호화 모드가 주파수 도메인인 경우에는 정상 프레임인 이전 프레임의 시간 도메인 신호를 이용하여 오버랩 앤드 애드 과정을 수행할 수 있다. 한편, 현재 프레임이 정상 프레임, 에러 프레임으로 연속된 이전 프레임의 개수가 2 개 이상이고, 이전 프레임이 에러 프레임이고 마지막 정상 프레임인 이전 프레임의 복호화 모드가 주파수 도메인인 경우에는 정상 프레임인 이전 프레임의 시간 도메인 신호를 이용하여 오버랩 앤드 애드과정을 수행하는 것이 아니라, 정상 프레임인 현재 프레임에서 구해진 시간 도메인 신호를 이용하여 오버랩 앤드 애드 과정을 수행할 수 있다. 이 조건은 다음과 같이 나타낼 수 있다.
if (bfi==0)&&(st→old_bfi_int>1)&&(st→prev_bfi==1)&&
(st→last_core==FREQ_CORE))
여기서, bfi는 현재 프레임에 대한 에러 프레임 지시자, st→old_bfi_int는 이전 프레임의 연속된 에러 프레임의 개수, st→prev_bfi는 이전 프레임의 bfi 정보, st→last_core는 이전의 마지막 정상 프레임에 대한 코어의 복호화 모드로서, 주파수 도메인(FREQ_CORE) 혹은 시간 도메인(TIME_CORE)을 예로 들 수 있다.
도 6은 본 발명의 일실시예에 따른 스펙트럼 복호화부의 구성을 나타낸 블록도이다.
도 6에 도시된 스펙트럼 복호화부(600)는 무손실 복호화부(610), 파라미터 역양자화부(620), 비트할당부(630), 스펙트럼 역양자화부(640), 노이즈 필링부(650) 및 스펙트럼 쉐이핑부(660)를 포함할 수 있다. 여기서, 노이즈 필링부(650)는 스펙트럼 쉐이핑부(660)의 후단에 위치할 수도 있다. 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(미도시)로 구현될 수 있다.
도 6을 참조하면, 무손실 복호화부(610)는 부호화과정에서 무손실 부호화가 수행된 파라미터, 예를 들어 norm 값에 대하여 무손실 복호화를 수행할 수 있다.
파라미터 역양자화부(620)는 무손실 복호화된 norm 값에 대하여 역양자화를 수행할 수 있다. 부호화과정에서 norm 값은 다양한 방식, 예를 들어 Vector quantization (VQ), Sclar quantization (SQ), Trellis coded quantization (TCQ), Lattice vector quantization (LVQ) 등을 이용하여 양자화될 수 있으며, 대응되는 방식을 사용하여 역양자화를 수행할 수 있다.
비트할당부(630)는 양자화된 norm 값에 근거하여 대역별로 필요로 하는 비트를 할당할 수 있다. 이 경우, 대역별로 할당된 비트는 부호화과정에서 할당되는 비트와 동일할 수 있다.
스펙트럼 역양자화부(640)는 대역별로 할당된 비트를 사용하여 역양자화 과정을 수행하여 정규화된 스펙트럼 계수를 생성할 수 있다.
노이즈 필링부(650)는 대역별로 노이즈 필링을 필요로 하는 부분에 대하여, 노이즈신호를 채울 수 있다.
스펙트럼 쉐이핑부(660)는 역양자화된 norm 값을 이용하여 정규화된 스펙트럼 계수를 쉐이핑할 수 있다. 스펙트럼 쉐이핑 과정을 통하여 최종적으로 복호화된 스펙트럼 계수가 얻어질 수 있다.
도 7은 본 발명의 일실시예에 따른 프레임 에러 은닉부의 구성을 나타낸 블록도이다.
도 7에 도시된 프레임 에러 은닉부(700)는 신호특성 판단부(710), 파라미터 제어부(730), 회귀분석부(750), 이득산출부(770) 및 스케일링부(790)를 포함할 수 있다. 각 구성요소는 적어도 하나 이상의 모듈로 일체화되어 적어도 하나 이상의 프로세서(미도시)로 구현될 수 있다.
도 7을 참조하면, 신호특성 판단부(710)는 복호화된 신호를이용하여 신호의 특성을 판단하며 복호화된 신호의 특성을 트랜지언트, normal, stationary 등으로 분류할 수 있다. 이중에서 트랜지언트 프레임을 판단하는 방법은 아래와 같다. 일실시예에 때르면, 이전 프레임의 프레임 에너지와 이동평균 에너지를 이용하여, 현재 프레임이 트랜지언트인지를 판단할 수 있다. 이를 위하여, 정상 프레임에 대해서 얻어지는 이동평균 에너지(Energy_MA)와 차이 에너지(Energy_diff)를 사용할 수 있다. Energy_MA와 Energy_diff를 얻는 방법은 다음과 같다.
프레임의 에너지 또는 norm 값의 합을 Energy_Curr이라 하면, Energy_MA는 Energy_MA = Energy_MA*0.8+Energy_Curr*0.2와 같이 구할 수 있다. 이때, Energy_MA의 초기값은 예를 들어 100으로 설정할 수 있다.
다음, Energy_diff는 Energy_MA와 Energy_Curr간의 차이를 정규화시킨 것으로서, Energy_diff = (Energy_Curr-Energy_MA)/Energy_MA와 같이 나타낼 수 있다.
트랜지언트 판단부(710)는 Energy_diff가 소정의 문턱치, 예를 들어 1.0 이상인 경우 현재 프레임을 트랜지언트로 판단할 수 있다. 여기서, Energy_diff가 1.0인 경우에는 Energy_Curr 가 Energy_MA 의 2배임을 나타내는 것으로서, 이전 프레임과 비교하여 현재 프레임의 에너지 변동이 매우 크다는 것을 의미할 수 있다.
신호 특성 판단부(710)에서 결정된 신호 특성과 엔코더에서 전송된 정보인 프레임 타입 및 부호화 모드 등을 이용하여 프레임 에러 은닉을 위한 파라미터를 제어할 수 있다. 한편, 트랜지언트 판단은 엔코더에서 전송된 정보를 이용하거나, 신호 특성 판단부(710)에서 구해진 트랜지언트 정보를 이용할 수 있다. 그런데, 두 가지를 동시에 이용하는 경우에는 아래와 같은 조건을 이용할 수 있다. 즉, 엔코더에서 전송된 트랜지언트 정보인 is_transient가 1이거나, 디코더에서 구해진 정보인 Energy_diff가 문턱치(ED_THRES), 예를 들어 1.0 이상인 경우, 현재 프레임이 에너지 변화가 심한 트랜지언트 프레임임을 의미하며, 따라서 회귀분석에 사용되는 이전 정상 프레임의 개수(num_pgf)를 감소시키고, 그외의 경우는 트랜지언트하지 않은 프레임으로 판단하여 이전 정상 프레임의 개수(num_pgf)를 증가시킬 수 있다.
if((Energy_diff<ED_THRES)&&(is_transient==0))
{
num_pgf = 4;
}
else
{
num_pgf = 2;
}
여기서 ED_THRES는 문턱치로서, 일예에 따르면 1.0으로 설정할 수 있다.
위의 트랜지언트 판단결과에 따라서, 프레임 에러 은닉을 위한 파라미터를 제어할 수 있다. 여기서, 프레임 에러 은닉을 위한 파라미터의 예로는 회귀분석에 사용된 이전 정상 프레임의 개수를 들 수 있다. 프레임 에러 은닉을 위한 파라미터의 다른 예로는 버스트 에러 구간에 대한 스케일링 방식을 들 수 있다. 하나의 버스트 에러 구간에서 동일한 Energy_diff값을 사용할 수 있다. 에러 프레임인 현재 프레임이 트랜지언트가 아닌 것으로 판단되면, 버스트 에러가 발생한 경우, 예를 들어 5번째 프레임부터는 이전 프레임에서 복호화된 스펙트럼 계수에 대해 회귀분석과는 별도로 강제적으로 3dB씩 고정된 값으로 스케일링할 수 있다. 한편, 에러 프레임인 현재 프레임이 트랜지언트로 판단되면, 버스트 에러가 발생한 경우, 예를 들어 2번째 프레임부터는 이전 프레임에서 복호화된 스펙트럼 계수에 대해 회귀분석과는 별도로 강제적으로 3dB씩 고정된 값으로 스케일링할 수 있다. 프레임 에러 은닉을 위한 파라미터의 또 다른 예로는 적응적 뮤팅 및 랜덤 부호의 적용 방식을 들 수 있다. 이에 대해서는 스케일링부(790)에서 설명하기로 한다.
회귀분석부(750)는 저장되어 있는 이전 프레임에 대한 파라미터를 이용하여 회귀분석을 수행할 수 있다. 회귀분석은 단일의 에러 프레임에 대하여 수행할 수도 있고, 버스트 에러가 발생한 경우로 한정하여 수행할 수도 있다. 회귀분석을 수행하는 에러 프레임의 조건에 대해서는 디코더 설계시 미리 정의될 수 있다. 만약 단일의 에러프레임에서 회귀 분석을 수행하는 경우에는 에러가 발생한 프레임에서 바로 수행할 수 있다. 수행된 결과에 따라 구해진 함수에 의해서 에러 프레임에서 필요한 파라메터를 예측하게 된다.
만약, 버스트 에러가 발생하였을 때 회귀분석을 수행하는 경우, 하기와 같이 연속된 에러 프레임의 개수를 의미하는 bfi_cnt가 2, 즉 두번째 연속된 에러 프레임에서부터 회귀분석을 수행하게 된다. 이 경우 첫번째 에러 프레임은 이전 프레임에서 구한 스펙트럼 계수를 단순 반복하거나 정해진 값만큼 스케일링 하는 방법이 가능하다.
if (bfi_cnt==2){
   regression_anaysis();
}if
한편, 주파수 도메인에서는 시간도메인에서 오버래핑된 신호를 변환한 결과를 연속된 에러가 발생하지 않았음에도 불구하고 연속된 에러와 유사한 문제가 발생할 수 있다. 예를 들어, 한 프레임 건너뛰어 에러가 발생하는 경우, 즉 에러 프레임-정상 프레임-에러 프레임의 순서로 에러가 발생하면, 50%의 오버래핑으로 변환 윈도우를 구성한 경우, 중간에 정상 프레임이 존재함에도 불구하고 음질은 에러 프레임-에러 프레임-에러 프레임의 순서로 에러가 발생한 경우와 큰 차이가 없어진다. 이는 후술할 도 16c에서와 같이, 프레임 n이 정상 프레임이라고 하더라도 n-1과 n+1 프레임이 에러 프레임인 경우 오버래핑 과정에서 전혀 다른 신호가 만들어지기 때문이다. 따라서, 에러 프레임-정상 프레임-에러 프레임의 순서로 에러가 발생하는 경우, 두번째 에러가 발생하는 세번째 프레임 의 bfi_cnt는 1이지만 1을 강제적으로 증가시킨다. 그 결과, bfi_cnt가 2가 되며 버스트 에러가 발생한 것으로 판단되어 회귀분석이 사용될 수 있다.
if((prev_old_bfi==1) && (bfi_cnt==1))
      {
          st->bfi_cnt++;
      }
 if(bfi_cnt==2){
 regression_anaysis();
}
여기서, prev_old_bfi는 2 프레임 이전의 프레임 에러 정보를 의미한다. 상기 과정은 현재 프레임이 에러 프레임인 경우 적용될 수 있다.
회귀 분석부(750)는 낮은 복잡도를 위해 2개 이상의 대역을 하나의 그룹으로 구성하여 각 그룹의 대표값을 도출하고, 대표값에 대하여 회귀 분석을 적용할 수 있다. 대표값의 일예로는 평균값, 중간값, 최대값 등을 사용할 수 있으나, 이에 한정되는 것은 아니다. 일실시예에 따르면, 각 그룹에 포함된 대역의 norm 평균값인 그루핑된 Norm의 평균 벡터를 대표값으로 사용할 수 있다.
한편, 신호 특성 판단부(710)에서 결정된 신호 특성과 인코더에서 전송된 정보인 프레임 타입 등을 이용하여 현재 프레임의 특성을 결정할 때, 현재 프레임이 트랜지언트 프레임으로 결정된 경우에는 회귀분석을 위한 이전 정상 프레임(PGF)의 개수를 줄여주고, 정상(stationary) 프레임인 경우에는 이전 정상 프레임(PGF)의 개수를 늘려준다. 일실시예에 따르면, 이전 프레임의 트랜지언트 여부를 의미하는 is_transient가 1인 경우, 즉 이전 프레임이 트랜지언트인 경우에는 이전 정상 프레임(PGF)의 개수(num_pgf)를 2로 설정하고, 그외의 정상 프레임에 대해서는 4로 설정할 수 있다.
 if(is_transient==1)                                
        {
            num_pgf = 2;            
        }
       else
        {
            num_pgf = 4;
        }
 그리고, 회귀분석을 위한 행렬의 로우(row)의 개수는 일예를 들어 2로 설정할 수 있다.
회귀분석부(750)에서의 회귀분석 결과, 에러 프레임에 대하여 각 그룹의 평균 norm 을 예측할 수 있다. 즉, 에러 프레임에서 하나의 그룹에 속하는 각 대역은 동일한 norm 값으로 예측될 수 있다. 구체적으로, 회귀분석부(750)는 회귀분석을 통하여 후술하는 선형 회귀분석 방정식 혹은 비선형 회귀분석 방정식에서 a 및 b 값을 산출하고, 산출된 a 및 b 값을 이용하여 에러 프레임의 average grouped norm을 그룹별로 예측할 수 있다.
이득산출부(770)는 에러 프레임에 대하여 예측된 각 그룹의 평균 norm 과, 바로 이전 good frame에서 각 그룹의 평균 norm간의 이득을 구할 수 있다.
스케일링부(790)는 이득산출부(770)에서 구해진 이득을 바로 이전 good frame의 스펙트럼 계수에 곱해서 에러 프레임의 스펙트럼 계수를 생성할 수 있다.
한편, 스케일링부(790)는 일실시예에 따르면, 입력신호의 특성에 따라 에러 프레임에 대하여 적응적 뮤팅(adaptive muting)을 적용하거나, 예측된 스펙트럼 계수에 대하여 랜덤 부호(random sign)를 적용할 수 있다.
먼저, 입력신호를 트랜지언트 신호와 트랜지언트가 아닌 신호로 구분할 수 있다. 트랜지언트가 아닌 신호 중에서 정상적(stationary)인 신호를 분류하여 다른 방식으로 처리할 수 있다. 예를 들어, 입력신호에 하모닉 성분이 많이 존재하는 것으로 판단된 경우, 신호의 변화가 크지 않은 정상적(stationary)인 신호로 결정하고, 이에 대응한 에러 은닉 알고리즘을 수행할 수 있다. 통상, 입력신호의 하모닉 정보는 엔코더에서 전송되는 정보를 이용할 수 있다. 낮은 복잡도를 필요로 하지 않는 경우에는 디코더에서 합성된 신호를 이용하여 구할 수도 있다.
입력 신호를 크게 트랜지언트 신호, 정상적인 신호, 그리고 나머지 신호의 세 가지로 분류하는 경우, 적응적 뮤팅 및 랜덤 부호는 하기와 같이 적용될 수 있다. 여기서, mute_start가 의미하는 숫자는 연속된 에러가 발생했을 때, bfi_cnt가 mute_start 이상인 경우 강제적으로 뮤팅을 시작하는 것을 의미한다. 랜덤 부호와 관련한 random_start 도 동일한 방식으로 해석될 수 있다.
 if((old_clas == HARMONIC) && (is_transient==0)) /* Stationary 한 경우 */
      {
          mute_start = 4;
          random_start = 3;
      }
      else if((Energy_diff<ED_THRES) && (is_transient==0)) /* 나머지 신호 */
      {
          mute_start = 3;
          random_start = 2;
      }
      else  /* Transient 한 신호 */
      {
          mute_start = 2;
          random_start = 2;
      }
여기서 적응적 뮤팅을 적용하는 방식은 스케일링 수행시 강제적으로 고정된 값으로 다운시키게 된다. 예를 들어, 현재 프레임의 bfi_cnt가 4이고 현재 프레임이 정상(stationary) 프레임인 경우에는, 현재 프레임에서 스펙트럼 계수의 스케일링을 3dB씩 다운시켜 줄 수 있다.
그리고, 스펙트럼 계수의 부호를 랜덤하게 수정하는 것은 프레임마다 스펙트럼 계수의 반복으로 인하여 발생하는 변조 노이즈(modulation noise)를 감소시키기 위한 것이다. 랜덤 부호를 적용하는 방식으로는 다양한 공지의 방식을 사용할 수 있다.
일실시예에 따르면, 프레임의 전체 스펙트럼 계수에 대해서 랜덤 부호를 적용할 수도 있고, 다른 실시예에 따르면 랜덤 부호를 적용하기 시작하는 주파수 대역을 미리 정의한 다음, 정의된 주파수 대역 이상에 대하여 랜덤 부호를 적용할 수 있다. 그 이유는 매우 낮은 주파수 대역에서는 부호의 변화로 인해 파형이나 에너지가 크게 바뀌는 경우가 발생하므로, 매우 낮은 주파수 대역, 즉 예를 들어 200Hz이하 또는 첫번째 대역에서는 이전 프레임과 동일한 스펙트럼 계수의 부호를 사용하는 것이 더 나은 성능을 가질 수 있다.
도 8은 본 발명의 일실시예에 따른 메모리 업데이트부의 구성을 나타낸 블록도이다
도 8에 도시된 메모리 업데이트부(800)는 제1 파라미터 획득부(820), norm 그루핑부(840), 제2 파라미터 획득부(860) 및 저장부(880)를 포함할 수 있다.
도 8을 참조하면, 제1 파라미터 획득부(820)는 transient 여부를 판단하기 위한 Energy_Curr과 Energy_MA 값을 구하여, 구해진 Energy_Curr과 Energy_MA 값을 저장부(880)로 제공한다.
norm 그루핑부(840)는 미리 정의된 그룹으로 norm값을 그루핑한다.
제2 파라미터 획득부(860)는 그룹별 평균 norm값을 구하고, 구해진 그룹별 평균 norm을 저장부(880)로 제공한다.
저장부(880)는 제1 파라미터 획득부(820)로부터 제공되는 Energy_Curr과 Energy_MA 값, 제2 파라미터 획득부(860)로부터 제공되는 그룹별 평균 norm, 엔코더로부터 전송되는 현재 프레임이 트랜지언트인지를 나타내는 트랜지언트 플래그, 현재 프레임이 시간 도메인 부호화인지 주파수 도메인 부호화인지를 나타내는 부호화 모드, 그리고 good frame에 대한 스펙트럼 계수를 현재 프레임의 값으로 업데이트하여 저장한다.
도 9는 본 발명에 적용된 대역분할의 예를 나타낸 것이다. 48kHz의 전대역(Fullband)의 경우 20ms 크기의 프레임에 대하여 50%의 오버래핑을 지원하며, MDCT를 적용하는 경우 부호화할 스펙트럼 계수의 개수는 960개가 된다. 만약, 20kHz까지 부호화하는 경우 부호화되는 스펙트럼 계수의 개수는 800개가 된다.
도 9에 있어서, A 부분은 협대역(narrowband)에 해당하며 0~ 3.2kHz까지 지원하고, 대역당 8개의 샘플을 이용하여 총 16개의 서브밴드로 분할한 예이다. B 부분은 광대역(wideband)을 지원하기 위해 협대역에서 추가되는 대역에 해당하며 3.2~6.4kHz까지 추가적으로 지원하고, 대역당 16개의 샘플을 이용하여 총 8개의 서브밴드로 분할한 예이다. C 부분은 초광대역(super-wideband)을 지원하기 위해 광대역에서 추가되는 대역에 해당하며 6.4~13.6kHz까지 추가적으로 지원하고, 대역당 24개의 샘플을 이용하여 총 12개의 서브밴드로 분할한 예이다. D 부분은 전대역(fullband)을 지원하기 위해 초광대역에서 추가되는 대역에 해당하며 13.6~20kHz까지 추가적으로 지원하고, 대역당 32개의 샘플을 이용하여 총 8개의 서브밴드로 분할한 예이다.
서브밴드로 분할된 신호를 부호화하는 방식은 다양한 방법이 있다. 스페트럼의 엔벨로프를 부호화하기 위해서는 대역별 에너지나 스케일 팩터, 또는 Norm 등을 이용할 수 있다. 스펙트럼의 엔벨로프를 먼저 부호화한 다음, 대역별 미세구조(fine structure) 즉 스펙트럼 계수를 부호화할 수 있다.  실시예에 따르면, 대역별 Norm을 이용하여 전체 대역의 엔벨로프를 부호화할 수 있다. Norm은 하기 수학식 1을 통하여 구해질 수 있다.
Figure pat00001
여기서, Norm에 해당하는 값은 gb이며, log scale의 nb가 실제 양자화된다. 양자화된 nb를 이용하여 양자화된 gb값을 구하며, 원래의 입력신호 xi를 양자화된 gb 값으로 나누어주게 되면 yi값이 구해지며, 이 yi 값에 대하여 미세구조 양자화과정이 수행된다.
도 10은 본 발명에 적용된 선형 회귀분석과 비선형 회귀분석의 개념을 나타낸 것으로서, average of normsdms 여러 대역을 묶어서 구해진 평균 norm 값으로서, 회귀분석이 적용되는 대상이다. 이전 프레임의 평균 norm 값에 대하여 양자화된 gb 값을 사용하면 선형 회귀분석이 되며, 로그 스케일 인 양자화된 nb 값을 사용하면 비선형 회귀분석이 된다. 그 이유는 로그 스케일에서의 선형값은 실제로는 비선형값이기 때문이다. 회귀분석에 사용되는 이전 정상 프레임의 개수를 의미하는 Number of Previous Good Frame(PGF)는 가변적으로 설정할 수 있다.
선형 회귀분석의 일예는 하기 수학식 2와 같이 나타낼 수 있다.
Figure pat00002
이와 같이, 1차 방정식을 사용하는 경우 a와 b를 구하면 앞으로의 추이를 예측할 수 있다. 수학식 2에서 a, b값은 역행렬에 의해서 구할 수 있다. 간단히 역행렬을 구하는 방식은 Gauss-Jordan Elimination을 이용할 수 있다.
비선형 회귀분석의 일예는 하기 수학식 3과 같이 나타낼 수 있다.
Figure pat00003
여기서 a와 b를 구하면 앞으로의 추이를 예측할 수 있다. 여기서 ln값은 nb값을 이용하여 대치할 수 있다.
도 11은 본 발명에서 회귀분석을 적용하기 위하여 그루핑된 서브밴드 구조의 일예를 나타낸 것이다.
도 11을 참조하면, 첫번째 영역은 8개의 대역이 하나의 그룹이 되어서 평균 norm 값을 구하게 되고, 이전 프레임에 대해서 구해진 그루핑된 평균 norm 값을 이용하여 에러 프레임의 그루핑된 평균 norm 값을 예측한다. 각 대역별로 구체적인 밴드의 사용예는 도 12 내지 도 14에서와 같이 나타낼 수 있다.
도 12는 7.6kHz까지 지원하는 광대역(Wideband) 부호화를 위하여 회귀분석을 적용하는 경우, 그루핑된 서브밴드 구조의 예를 나타낸 것이다. 도 13은 13.6kHz까지 지원하는 초광대역(Super-wideband) 부호화를 위하여 회귀분석을 적용하는 경우, 그루핑된 서브밴드 구조의 예를 나타낸 것이다. 도 14는 20kHz까지 지원하는 전대역(Fullband) 부호화를 위하여 회귀분석을 적용하는 경우, 그루핑된 서브밴드 구조의 예를 나타낸 것이다.
그루핑된 서브밴드에서 구해진 그루핑된 평균 norm 값들은 하나의 벡터를 형성하며, 이 벡터를 그루핑된 norm의 평균 벡터(average vector of the grouped norm)로 명명한다. 그루핑된 norm의 평균 벡터를 이용하여 도 10에서 언급한 행렬식에 대입하여 기울기와 y 절편에 각각 해당하는 a와 b값을 구할 수 있다.
도 15a 내지 도 15c는 16kHz까지 지원하며 대역확장(BWE)을 사용하는 경우, 초광대역(Super-wideband)에 대하여 회귀분석을 적용하기 위하여 그루핑된 서브밴드 구조의 예들을 나타낸 것이다.
초광대역에서 20ms의 프레임 크기를 50% 오버래핑하여 MDCT를 수행하면 총 640개의 스펙트럼 계수가 얻어진다. 실시예에서는 코어(core) 부분과 BWE 부분을 분리하여 그루핑된 서브밴드를 결정할 수 있다. 여기서, 처음 시작 부분부터 BWE가 시작하는 부분까지를 코더 부호화라고 한다. 이때, 코어 부분과 BWE 부분에서 사용되는 스펙트럼 엔벨로프를 나타내는 방식은 다를 수도 있다. 예를 들어, 코어 부분에서는 norm값 또는 스케일 팩터 등을 이용할 수 있고, 마찬가지로 BWE 부분에서도 norm값 또는 스케일 팩터 등을 이용할 수 있는데 코어 부분과 BWE 부분이 서로 다른 것을 사용해도 무방하다.
도 15a는 코어 부호화에 많은 비트가 사용된 경우의 예이며 도 15b 및 도 15c로 가면서 코어 부호화에 할당되는 비트가 작아진다. BWE 부분은 각 그루핑된 서브밴드의 예로서, 각 서브밴드 숫자는 스펙트럼 계수의 개수를 나타낸다. 스펙트럼 엔벨로프를 norm을 이용하는 경우, 회귀분석을 이용한 프레임 에러 은닉 알고리즘은 다음과 같다. 먼저, 회귀분석은 BWE 부분에 해당하는 그루핑된 평균 norm값을 이용하여 메모리를 갱신한다. 코어 부분과 독립적으로 이전 프레임의 BWE 부분의 그루핑된 평균 norm값을 이용하여 회귀분석을 수행하고, 현재 프레임의 그루핑된 평균 norm값을 예측한다.
도 16a 내지 도 16c는 다음 정상 프레임의 시간 신호를 이용한 오버랩 앤드 애드 방식의 예들을 나타낸 것이다.
도 16a는 이전 프레임이 에러 프레임이 아닌 경우, 이전 프레임을 이용하여 반복이나 이득 스케일링을 수행하는 방법을 설명한다. 한편, 도 16b를 참조하면 추가적인 지연을 사용하지 않기 위해, 아직 오버래핑을 통하여 복호화되지 않은 부분에 대해서만 다음 정상 프레임인 현재 프레임에서 복호화된 시간 도메인 신호를 과거로 반복하면서 오버래핑을 하고, 여기에 더해서 이득 스케일링을 수행한다. 반복할 신호의 크기는 오버래핑되는 부분의 크기보다 적거나 같은 값이 선택된다. 일실시예에 따르면, 오버래핑되는 부분의 크기는 13*L/20일 수 있다. 여기서 L은 예를 들어, 협대역(Narrowband)인 경우에는 160, 광대역(Wideband)인 경우에는 320, 초광대역(Super-Wideband)인 경우에는 640, 전대역(Fullband)인 경우에는 960이다.
한편, 시간 오버래핑 과정에 사용되는 신호를 도출하기 위해 다음 정상 프레임의 시간 도메인 신호를 반복을 통해 구하는 방식은 아래와 같다.
도 16b에 있어서, n+2 프레임의 미래 부분에 표시된 13*L/20 크기의 블럭을 n+1 프레임의 동일 위치에 해당하는 미래 부분으로 복사하여 기존 값을 대치하면서 스케일을 조정한다.  여기서 스케일링되는 값의 예는  -3dB이다. 복사할 때 이전 n+1 프레임과의 불연속성을 없애기 위해 처음 3*L/20 크기에 대해서는 이전 프레임값인 도 16b의 n+1 프레임에서 얻어진 시간 도메인 신호와 미래 부분에서 복사된 신호에 대하여 선형적으로 오버래핑을 수행한다. 이 과정을 통해 최종적으로 오버래핑을 위한 신호가 얻어질 수 있으며, 수정된 n+1신호와 n+2신호가 오버래핑되면 최종 N+2 프레임에 대한 시간 도메인 신호가 출력된다.
한편, 다른 예로서 도 16c을 참조하면, 전송된 비트 스트림은 복호화 과정을 통하여 "MDCT-domain decoded Spectrum"을 구성한다. 예를 들어, 50%의 오버래핑을 사용하는 경우, 실제 파라메터의 개수는 프레임 크기의 두 배가 된다. 복호화된 스펙트럼 계수에 대하여 역변환을 수행하면 동일한 크기의 시간 도메인 신호가 생성되고, 시간 도메인 신호에 대하여 "Time windowing" 과정을 수행하여 윈도윙된 신호(auOut)를 생성한다. 윈도윙된 신호에 대하여 "Time Overlap-and-add" 과정을 수행하여 최종 "Time Output"을 생성한다. 프레임 n을 기준으로 볼 때 이전 프레임에서 오버래핑이 이루어지지 않은 부분(OldauOut)은 저장되어 다음 프레임에서 사용될 수 있다.
도 17은 본 발명의 일실시예에 따른 멀티미디어 기기의 구성을 나타낸 블록도이다.
도 17에 도시된 멀티미디어 기기(1700)는 통신부(1710)와 복호화모듈(1730)을 포함할 수 있다. 또한, 복호화 결과 얻어지는 복원된 오디오신호의 용도에 따라서, 복원된 오디오신호를 저장하는 저장부(1750)을 더 포함할 수 있다. 또한, 멀티미디어 기기(1700)는 스피커(1770)를 더 포함할 수 있다. 즉, 저장부(1750)와 스피커(1770)는 옵션으로 구비될 수 있다. 한편, 도 17에 도시된 멀티미디어 기기(1700)는 임의의 부호화모듈(미도시), 예를 들면 일반적인 부호화 기능을 수행하는 부호화모듈을 더 포함할 수 있다. 여기서, 복호화모듈(1730)은 멀티미디어 기기(1700)에 구비되는 다른 구성요소(미도시)와 함께 일체화되어 적어도 하나의 이상의 프로세서(미도시)로 구현될 수 있다.
도 17을 참조하면, 통신부(1710)는 외부로부터 제공되는 부호화된 비트스트림과 오디오 신호 중 적어도 하나를 수신하거나 복호화 모듈(1730)의 복호화결과 얻어지는 복원된 오디오 신호와 부호화결과 얻어지는 오디오 비트스트림 중 적어도 하나를 송신할 수 있다.
통신부(1710)는 무선 인터넷, 무선 인트라넷, 무선 전화망, 무선 랜(LAN), 와이파이(Wi-Fi), 와이파이 다이렉트(WFD, Wi-Fi Direct), 3G(Generation), 4G(4 Generation), 블루투스(Bluetooth), 적외선 통신(IrDA, Infrared Data Association), RFID(Radio Frequency Identification), UWB(Ultra WideBand), 지그비(Zigbee), NFC(Near Field Communication)와 같은 무선 네트워크 또는 유선 전화망, 유선 인터넷과 같은 유선 네트워크를 통해 외부의 멀티미디어 기기와 데이터를 송수신할 수 있도록 구성된다.
복호화 모듈(1730)은 전술한 본 발명의 다양한 실시예에 따른 오디오 복호화장치를 이용하여 구현될 수 있다.
저장부(1750)는 복호화 모듈(1730)에서 생성되는 복원된 오디오신호를 저장할 수 있다. 한편, 저장부(1750)는 멀티미디어 기기(1700)의 운용에 필요한 다양한 프로그램을 저장할 수 있다.
스피커(1770)는 복호화 모듈(1730)에서 생성되는 복원된 오디오신호를 외부로 출력할 수 있다.
도 18은 본 발명의 다른 실시예에 따른 멀티미디어 기기의 구성을 나타낸 블록도이다.
도 18에 도시된 멀티미디어 기기(1800)는 통신부(1810), 부호화모듈(1820)과 복호화모듈(1830)을 포함할 수 있다. 또한, 부호화 결과 얻어지는 오디오 비트스트림 혹은 복호화 결과 얻어지는 복원된 오디오신호의 용도에 따라서, 오디오 비트스트림 혹은 복원된 오디오신호를 저장하는 저장부(1840)을 더 포함할 수 있다. 또한, 멀티미디어 기기(1800)는 마이크로폰(1850) 혹은 스피커(1860)를 더 포함할 수 있다. 여기서, 부호화모듈(1820)과 복호화모듈(1830)은 멀티미디어 기기(1800)에 구비되는 다른 구성요소(미도시)와 함께 일체화되어 적어도 하나 이상의 프로세서(미도시)로 구현될 수 있다. 도 18에 도시된 구성요소 중 도 17에 도시된 멀티미디어 기기(1700)의 구성요소와 중복되는 부분에 대해서는 그 상세한 설명을 생략하기로 한다.
도 18에 있어서, 부호화모듈(1820)은 공지된 다양한 부호화 알고리즘을 탑재하여 오디오 신호에 대하여 부호화를 수행하여 비트스트림을 생성할 수 있다. 부호화 알고리즘으로는 AMR-WB(Adaptive Multi-Rate-Wideband), MPEG-2 & 4 AAC(Advanced Audio Coding) 등을 들 수 있으나, 이에 한정되는 것은 아니다.
저장부(1840)는 부호화 모듈(1820)에서 생성되는 부호화된 비트스트림을 저장할 수 있다. 한편, 저장부(1840)는 멀티미디어 기기(1800)의 운용에 필요한 다양한 프로그램을 저장할 수 있다.
마이크로폰(1850)은 사용자 혹은 외부의 오디오신호를 부호화모듈(1820)로 제공할 수 있다.
도 17 및 도 18에 도시된 멀티미디어 기기(1700, 1800)에는, 전화, 모바일 폰 등을 포함하는 음성통신 전용단말, TV, MP3 플레이어 등을 포함하는 방송 혹은 음악 전용장치, 혹은 음성통신 전용단말과 방송 혹은 음악 전용장치의 융합 단말장치가 포함될 수 있으나, 이에 한정되는 것은 아니다. 또한, 멀티미디어 기기(1700, 1800)는 클라이언트, 서버 혹은 클라이언트와 서버 사이에 배치되는 변환기로서 사용될 수 있다.
한편, 멀티미디어 기기(1700, 1800)가 예를 들어 모바일 폰인 경우, 도시되지 않았지만 키패드 등과 같은 유저 입력부, 유저 인터페이스 혹은 모바일 폰에서 처리되는 정보를 디스플레이하는 디스플레이부, 모바일 폰의 전반적인 기능을 제어하는 프로세서를 더 포함할 수 있다. 또한, 모바일 폰은 촬상 기능을 갖는 카메라부와 모바일 폰에서 필요로 하는 기능을 수행하는 적어도 하나 이상의 구성요소를 더 포함할 수 있다.
한편, 멀티미디어 기기(1700, 1800)가 예를 들어 TV인 경우, 도시되지 않았지만 키패드 등과 같은 유저 입력부, 수신된 방송정보를 디스플레이하는 디스플레이부, TV의 전반적인 기능을 제어하는 프로세서를 더 포함할 수 있다. 또한, TV는 TV에서 필요로 하는 기능을 수행하는 적어도 하나 이상의 구성요소를 더 포함할 수 있다.
상기 실시예들에 따른 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 본 발명의 실시예들에서 사용될 수 있는 데이터 구조, 프로그램 명령, 혹은 데이터 파일은 컴퓨터로 읽을 수 있는 기록매체에 다양한 수단을 통하여 기록될 수 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함할 수 있다. 컴퓨터로 읽을 수 있는 기록매체의 예로는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 컴퓨터로 읽을 수 있는 기록매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 전송 매체일 수도 있다. 프로그램 명령의 예로는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
이상과 같이 본 발명의 일실시예는 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명의 일실시예는 상기 설명된 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 스코프는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 이의 균등 또는 등가적 변형 모두는 본 발명 기술적 사상의 범주에 속한다고 할 것이다.
710 ... 신호 특성 판단부 730 ... 파라미터 제어부
750 ... 회귀 분석부 770 ... 이득 산출부
790 ... 스케일링부

Claims (6)

  1. 현재 프레임이 에러 프레임인 경우, 복수의 이전 프레임의 제 1의 norm 평균 값에 대하여 회귀분석을 수행함으로써, 상기 현재 프레임의 제 2의 norm 평균 값을 예측하는 단계;
    상기 현재 프레임의 제 2의 norm 평균 값과 적어도 하나의 이전 프레임의 제 1의 norm 평균 값에 기초하여 이득을 구하는 단계; 및
    상기 이득을 기초로 적어도 하나의 이전 프레임의 스펙트럼 계수를 스케일링하여 상기 현재 프레임의 스펙트럼 계수를 생성함으로써 상기 현재 프레임을 은닉하는 단계를 포함하며,
    이동 평균 에너지와 상기 현재 프레임의 에너지 간의 정규화된 에너지 차이와 임계치의 비교 결과, 및 인코더로부터 수신되는 트랜지언트 플래그가 나타내는 값에 기초하여 상기 복수의 이전 프레임의 개수가 상이하게 결정되는 프레임 에러 은닉방법.
  2. 제1항에 있어서,
    상기 이동 평균 에너지와 상기 현재 프레임의 에너지 간의 정규화된 에너지 차이는, 하기 수학식으로부터 도출되며,
    [수학식]
    Energy_diff = (Energy_Curr-Energy_MA)/Energy_MA
    상기 수학식에서, Energy_diff는 정규화된 에너지 차이, Energy_Curr는 현재 프레임의 에너지, Energy_MA는 이동 평균 에너지를 나타내는, 프레임 에러 은닉방법.
  3. 제1항에 있어서,
    상기 프레임 에러 은닉방법은,
    상기 현재 프레임을 포함하는 연속된 에러 프레임들의 개수가 미리 결정된 값에 해당하면, 상기 회귀 분석과 무관하게 상기 현재 프레임을 뮤팅(muting)하는 단계를 더 포함하는 프레임 에러 은닉방법.
  4. 제3항에 있어서, 상기 현재 프레임을 뮤팅하는 단계는,
    상기 적어도 하나의 이전 프레임의 스펙트럼 계수를 미리 결정된 값으로 다운 스케일하는 단계를 포함하는 프레임 에러 은닉방법.
  5. 제1항에 있어서,
    상기 프레임 에러 은닉방법은,
    상기 현재 프레임을 포함하는 연속된 에러 프레임들의 개수가 미리 결정된 값에 해당하면, 상기 현재 프레임의 스펙트럼 계수에 부호를 랜덤하게 적용하는 프레임 에러 은닉방법.
  6. 제1항 내지 제5항 중 어느 한 항에 기재된 방법을 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020200007381A 2011-10-21 2020-01-20 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치 KR102194558B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200177444A KR102328123B1 (ko) 2011-10-21 2020-12-17 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161549953P 2011-10-21 2011-10-21
US61/549,953 2011-10-21

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020120117510A Division KR102070430B1 (ko) 2011-10-21 2012-10-22 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200177444A Division KR102328123B1 (ko) 2011-10-21 2020-12-17 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치

Publications (2)

Publication Number Publication Date
KR20200013253A true KR20200013253A (ko) 2020-02-06
KR102194558B1 KR102194558B1 (ko) 2020-12-23

Family

ID=48141574

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020120117510A KR102070430B1 (ko) 2011-10-21 2012-10-22 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치
KR1020200007381A KR102194558B1 (ko) 2011-10-21 2020-01-20 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치
KR1020200177444A KR102328123B1 (ko) 2011-10-21 2020-12-17 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020120117510A KR102070430B1 (ko) 2011-10-21 2012-10-22 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020200177444A KR102328123B1 (ko) 2011-10-21 2020-12-17 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치

Country Status (9)

Country Link
US (4) US20130144632A1 (ko)
EP (1) EP2770503B1 (ko)
JP (3) JP5973582B2 (ko)
KR (3) KR102070430B1 (ko)
CN (3) CN104011793B (ko)
MX (1) MX338070B (ko)
TR (1) TR201908217T4 (ko)
TW (2) TWI585747B (ko)
WO (1) WO2013058635A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022085846A1 (ko) * 2020-10-19 2022-04-28 주식회사 딥히어링 음성 데이터의 품질 향상 방법, 및 이를 이용하는 장치

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104011793B (zh) * 2011-10-21 2016-11-23 三星电子株式会社 帧错误隐藏方法和设备以及音频解码方法和设备
CN103516440B (zh) * 2012-06-29 2015-07-08 华为技术有限公司 语音频信号处理方法和编码装置
CN104995673B (zh) * 2013-02-13 2016-10-12 瑞典爱立信有限公司 帧错误隐藏
WO2014175617A1 (ko) * 2013-04-23 2014-10-30 ㈜ 소닉티어 직접 오디오 채널 데이터 및 간접 오디오 채널 데이터를 이용한 스케일러블 디지털 오디오 인코딩/디코딩 방법 및 장치
PL3011557T3 (pl) 2013-06-21 2017-10-31 Fraunhofer Ges Forschung Urządzenie i sposób do udoskonalonego stopniowego zmniejszania sygnału w przełączanych układach kodowania sygnału audio podczas ukrywania błędów
EP3614381A1 (en) 2013-09-16 2020-02-26 Samsung Electronics Co., Ltd. Signal encoding method and device and signal decoding method and device
CN103646647B (zh) * 2013-12-13 2016-03-16 武汉大学 混合音频解码器中帧差错隐藏的谱参数代替方法及系统
WO2015134579A1 (en) 2014-03-04 2015-09-11 Interactive Intelligence Group, Inc. System and method to correct for packet loss in asr systems
CN107112022B (zh) * 2014-07-28 2020-11-10 三星电子株式会社 用于时域数据包丢失隐藏的方法
EP2980797A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, method and computer program using a zero-input-response to obtain a smooth transition
TWI602172B (zh) * 2014-08-27 2017-10-11 弗勞恩霍夫爾協會 使用參數以加強隱蔽之用於編碼及解碼音訊內容的編碼器、解碼器及方法
WO2016142002A1 (en) 2015-03-09 2016-09-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal
CA3016837C (en) * 2016-03-07 2021-09-28 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Hybrid concealment method: combination of frequency and time domain packet loss concealment in audio codecs
WO2020169754A1 (en) * 2019-02-21 2020-08-27 Telefonaktiebolaget Lm Ericsson (Publ) Methods for phase ecu f0 interpolation split and related controller
JP7371133B2 (ja) * 2019-06-13 2023-10-30 テレフオンアクチーボラゲット エルエム エリクソン(パブル) 時間反転されたオーディオサブフレームエラー隠蔽
TWI789577B (zh) * 2020-04-01 2023-01-11 同響科技股份有限公司 音訊資料重建方法及系統
CN111726629B (zh) * 2020-06-09 2022-02-11 绍兴图信科技有限公司 基于多元线性回归的smvq压缩数据隐藏方法
CN113035205B (zh) * 2020-12-28 2022-06-07 阿里巴巴(中国)有限公司 音频丢包补偿处理方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6658112B1 (en) * 1999-08-06 2003-12-02 General Dynamics Decision Systems, Inc. Voice decoder and method for detecting channel errors using spectral energy evolution
US20070198254A1 (en) * 2004-03-05 2007-08-23 Matsushita Electric Industrial Co., Ltd. Error Conceal Device And Error Conceal Method
KR20080048317A (ko) * 2006-11-28 2008-06-02 삼성전자주식회사 프레임 오류 은닉 방법 및 장치, 이를 이용한 오디오 신호복호화 방법 및 장치

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970011728B1 (ko) * 1994-12-21 1997-07-14 김광호 음향신호의 에러은닉방법 및 그 장치
US5636231A (en) * 1995-09-05 1997-06-03 Motorola, Inc. Method and apparatus for minimal redundancy error detection and correction of voice spectrum parameters
JP2776775B2 (ja) * 1995-10-25 1998-07-16 日本電気アイシーマイコンシステム株式会社 音声符号化装置及び音声復号化装置
US6137915A (en) * 1998-08-20 2000-10-24 Sarnoff Corporation Apparatus and method for error concealment for hierarchical subband coding and decoding
US6327689B1 (en) * 1999-04-23 2001-12-04 Cirrus Logic, Inc. ECC scheme for wireless digital audio signal transmission
DE19921122C1 (de) * 1999-05-07 2001-01-25 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Verschleiern eines Fehlers in einem codierten Audiosignal und Verfahren und Vorrichtung zum Decodieren eines codierten Audiosignals
JP4464488B2 (ja) * 1999-06-30 2010-05-19 パナソニック株式会社 音声復号化装置及び符号誤り補償方法、音声復号化方法
FR2813722B1 (fr) * 2000-09-05 2003-01-24 France Telecom Procede et dispositif de dissimulation d'erreurs et systeme de transmission comportant un tel dispositif
US7031926B2 (en) * 2000-10-23 2006-04-18 Nokia Corporation Spectral parameter substitution for the frame error concealment in a speech decoder
DE60139144D1 (de) * 2000-11-30 2009-08-13 Nippon Telegraph & Telephone Audio-dekodierer und audio-dekodierungsverfahren
US7069208B2 (en) * 2001-01-24 2006-06-27 Nokia, Corp. System and method for concealment of data loss in digital audio transmission
EP1428206B1 (en) * 2001-08-17 2007-09-12 Broadcom Corporation Bit error concealment methods for speech coding
US7590525B2 (en) * 2001-08-17 2009-09-15 Broadcom Corporation Frame erasure concealment for predictive speech coding based on extrapolation of speech waveform
JP2003099096A (ja) * 2001-09-26 2003-04-04 Toshiba Corp オーディオ復号処理装置及びこの装置に用いられる誤り補償装置
JP2004361731A (ja) * 2003-06-05 2004-12-24 Nec Corp オーディオ復号装置及びオーディオ復号方法
SE527669C2 (sv) * 2003-12-19 2006-05-09 Ericsson Telefon Ab L M Förbättrad felmaskering i frekvensdomänen
JP4486387B2 (ja) * 2004-03-19 2010-06-23 パナソニック株式会社 エラー補償装置およびエラー補償方法
US8725501B2 (en) * 2004-07-20 2014-05-13 Panasonic Corporation Audio decoding device and compensation frame generation method
RU2404506C2 (ru) * 2004-11-05 2010-11-20 Панасоник Корпорэйшн Устройство масштабируемого декодирования и устройство масштабируемого кодирования
KR100686174B1 (ko) * 2005-05-31 2007-02-26 엘지전자 주식회사 오디오 에러 은닉 방법
KR100736041B1 (ko) * 2005-06-30 2007-07-06 삼성전자주식회사 에러 은닉 방법 및 장치
KR100723409B1 (ko) 2005-07-27 2007-05-30 삼성전자주식회사 프레임 소거 은닉장치 및 방법, 및 이를 이용한 음성복호화 방법 및 장치
US8620644B2 (en) * 2005-10-26 2013-12-31 Qualcomm Incorporated Encoder-assisted frame loss concealment techniques for audio coding
KR101292771B1 (ko) * 2006-11-24 2013-08-16 삼성전자주식회사 오디오 신호의 오류은폐방법 및 장치
CN101046964B (zh) * 2007-04-13 2011-09-14 清华大学 基于重叠变换压缩编码的错误隐藏帧重建方法
CN101399040B (zh) * 2007-09-27 2011-08-10 中兴通讯股份有限公司 一种帧错误隐藏的谱参数替换方法
CN101207665B (zh) 2007-11-05 2010-12-08 华为技术有限公司 一种衰减因子的获取方法
CN100550712C (zh) * 2007-11-05 2009-10-14 华为技术有限公司 一种信号处理方法和处理装置
WO2009084918A1 (en) * 2007-12-31 2009-07-09 Lg Electronics Inc. A method and an apparatus for processing an audio signal
US8301440B2 (en) * 2008-05-09 2012-10-30 Broadcom Corporation Bit error concealment for audio coding systems
EP2289065B1 (en) * 2008-06-10 2011-12-07 Dolby Laboratories Licensing Corporation Concealing audio artifacts
WO2009150290A1 (en) * 2008-06-13 2009-12-17 Nokia Corporation Method and apparatus for error concealment of encoded audio data
DE102008042579B4 (de) * 2008-10-02 2020-07-23 Robert Bosch Gmbh Verfahren zur Fehlerverdeckung bei fehlerhafter Übertragung von Sprachdaten
JP5519230B2 (ja) 2009-09-30 2014-06-11 パナソニック株式会社 オーディオエンコーダ及び音信号処理システム
EP2458585B1 (en) * 2010-11-29 2013-07-17 Nxp B.V. Error concealment for sub-band coded audio signals
CA2827000C (en) * 2011-02-14 2016-04-05 Jeremie Lecomte Apparatus and method for error concealment in low-delay unified speech and audio coding (usac)
CN104011793B (zh) 2011-10-21 2016-11-23 三星电子株式会社 帧错误隐藏方法和设备以及音频解码方法和设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6658112B1 (en) * 1999-08-06 2003-12-02 General Dynamics Decision Systems, Inc. Voice decoder and method for detecting channel errors using spectral energy evolution
US20070198254A1 (en) * 2004-03-05 2007-08-23 Matsushita Electric Industrial Co., Ltd. Error Conceal Device And Error Conceal Method
US7809556B2 (en) * 2004-03-05 2010-10-05 Panasonic Corporation Error conceal device and error conceal method
KR20080048317A (ko) * 2006-11-28 2008-06-02 삼성전자주식회사 프레임 오류 은닉 방법 및 장치, 이를 이용한 오디오 신호복호화 방법 및 장치

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ETSI TS 126 402. Enhanced aacPlus general audio codec Additional decoder tools. 3GPP TS 26.402 version 6.1.0 Release 6. 2005.09.* *
Jeremie Lecomte, et al. Packet-loss concealment technology advances in EVS. IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). 2015. *
Low-complexity, full-band audio coding for high-quality, conversational applications. Recommendation ITU-T G.719. 2008.06.* *
Marina Bosi, et al. ISO/IEC MPEG-2 advanced audio coding. Journal of the Audio engineering society, 1997, Vol.45. No.10, pp.789-814. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022085846A1 (ko) * 2020-10-19 2022-04-28 주식회사 딥히어링 음성 데이터의 품질 향상 방법, 및 이를 이용하는 장치
US11830513B2 (en) 2020-10-19 2023-11-28 Deephearing Inc. Method for enhancing quality of audio data, and device using the same

Also Published As

Publication number Publication date
CN107103910B (zh) 2020-09-18
KR102070430B1 (ko) 2020-01-28
JP5973582B2 (ja) 2016-08-23
US10984803B2 (en) 2021-04-20
JP2014531056A (ja) 2014-11-20
TW201337912A (zh) 2013-09-16
JP2018041109A (ja) 2018-03-15
US20200066284A1 (en) 2020-02-27
MX2014004796A (es) 2014-08-21
US10468034B2 (en) 2019-11-05
TW201725581A (zh) 2017-07-16
KR102194558B1 (ko) 2020-12-23
EP2770503A4 (en) 2015-09-30
JP2016184182A (ja) 2016-10-20
JP6546256B2 (ja) 2019-07-17
WO2013058635A3 (ko) 2013-06-20
EP2770503B1 (en) 2019-05-29
KR102328123B1 (ko) 2021-11-17
TWI585747B (zh) 2017-06-01
CN104011793B (zh) 2016-11-23
TR201908217T4 (tr) 2019-06-21
US20210217427A1 (en) 2021-07-15
KR20200143348A (ko) 2020-12-23
US20190172469A1 (en) 2019-06-06
US20130144632A1 (en) 2013-06-06
CN107068156A (zh) 2017-08-18
US11657825B2 (en) 2023-05-23
WO2013058635A2 (ko) 2013-04-25
KR20130044194A (ko) 2013-05-02
CN107103910A (zh) 2017-08-29
CN104011793A (zh) 2014-08-27
TWI610296B (zh) 2018-01-01
EP2770503A2 (en) 2014-08-27
JP6259024B2 (ja) 2018-01-10
MX338070B (es) 2016-04-01
CN107068156B (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
KR102194558B1 (ko) 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치
KR102117051B1 (ko) 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치
US10714097B2 (en) Method and apparatus for concealing frame error and method and apparatus for audio decoding

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant