KR20150070398A - 오디오 신호 인코딩/디코딩 방법 및 오디오 신호 인코딩/디코딩 장치 - Google Patents

오디오 신호 인코딩/디코딩 방법 및 오디오 신호 인코딩/디코딩 장치 Download PDF

Info

Publication number
KR20150070398A
KR20150070398A KR1020157013439A KR20157013439A KR20150070398A KR 20150070398 A KR20150070398 A KR 20150070398A KR 1020157013439 A KR1020157013439 A KR 1020157013439A KR 20157013439 A KR20157013439 A KR 20157013439A KR 20150070398 A KR20150070398 A KR 20150070398A
Authority
KR
South Korea
Prior art keywords
signal
emphasis
excitation signal
low
factor
Prior art date
Application number
KR1020157013439A
Other languages
English (en)
Other versions
KR101736394B1 (ko
Inventor
제신 리우
빈 왕
레이 미아오
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20150070398A publication Critical patent/KR20150070398A/ko
Application granted granted Critical
Publication of KR101736394B1 publication Critical patent/KR101736394B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • G10L21/0388Details of processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • G10L19/265Pre-filtering, e.g. high frequency emphasis prior to encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Spectroscopy & Molecular Physics (AREA)

Abstract

본 발명의 실시예는 오디오 신호 인코딩 및 디코딩 방법, 오디오 신호 인코딩 및 디코딩 장치, 전송기, 수신기, 및 통신 시스템을 제공하며, 이것은 인코딩 및/또는 디코딩 성능을 향상시킬 수 있다. 오디오 신호 인코딩 방법은, 인코딩될 시간 도메인 신호를 저대역 신호 및 고대역 신호로 분할하는 단계; 상기 저대역 신호를 인코딩하여 저주파 인코딩 파라미터를 획득하는 단계; 상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하고, 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호(high band excitation signal)를 예측하는 단계 - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성(voiced characteristic)의 정도를 나타내는 데 사용됨 - ; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계; 및 상기 합성 여기 신호 및 상기 고대역 신호에 기초하여 고주파 인코딩 파라미터를 획득하는 단계를 포함한다. 본 발명의 실시예에서의 기술적 솔루션은 인코딩 또는 디코딩 효과를 향상시킬 수 있다.

Description

오디오 신호 인코딩/디코딩 방법 및 오디오 신호 인코딩/디코딩 장치{AUDIO SIGNAL ENCODING/DECODING METHOD AND AUDIO SIGNAL ENCODING/DECODING DEVICE}
본 출원은 2013년 1월 11일 중국특허청에 출원되고 발명의 명칭이 "AUDIO SIGNAL ENCODING AND DECODING METHOD, AND AUDIO SIGNAL ENCODING AND DECODING APPARATUS"인 중국특허출원 No. 201310010936.8에 대한 우선권을 주장하는 바이며, 상기 문헌은 본 명세서에 원용되어 병합된다.
본 발명은 통신 기술 분야에 관한 것이며, 특히 오디오 신호 인코딩 방법, 오디오 신호 디코딩 방법, 오디오 신호 인코딩 장치, 오디오 신호 디코딩 장치, 전송기, 수신기, 및 통신 시스템에 관한 것이다.
통신 기술이 계속 발전함에 따라, 사용자는 음질에 대한 조건을 더 요구하고 있다. 일반적으로, 음질은 음질의 대역폭을 증가시킴으로써 향상된다. 대역폭이 증가하는 정보가 종래의 인코딩 방식으로 인코딩되면, 비트 레이트가 크게 향상되고 그 결과 현재의 네트워크 대역폭의 제한 조건으로서는 인코딩을 실행하는 것이 곤란하다. 그러므로 비트 레이트가 변하지 않거나 변하더라도 약간만 변하는 경우에는 대역폭이 넓은 신호에 대해 인코딩이 수행되어야 하고, 이러한 문제에 대한 솔루션은 대역폭 확장 기술을 사용하는 것이다. 대역폭 확장 기술은 시간 도메인 또는 주파수 도메인에서 완료될 수 있으며, 대역폭 확장은 본 발명의 시간 도메인에서 완료된다.
시간 도메인에서 대역폭 확장을 수행하는 기본적인 원리는 저대역 신호와 고대역 신호에 대해 2개의 다른 처리 방법을 사용하는 것이다. 원래의 신호 중 저대역 신호에 있어서는, 다양한 인코더를 사용하여 조건에 따라 인코더 사이드인코더 측에서 인코딩을 수행하며; 디코더 측에서, 인코더 사이드인코더 측의 인코더에 대응하는 디코더를 사용하여 저대역 신호를 디코딩하고 복원한다. 고대역 신호에 있어서는, 인코더 측에서, 저대역 신호에 대해 사용되는 인코더를 사용하여 저주파 인코딩 파라미터를 획득함으로써 고대역 여기 신호를 예측하며; 예를 들어, 원래의 신호의 고대역 신호에 대해 선형 예측 코딩(linear Prencdictive Coding: LPC) 분석이 수행되어 고주파 LPC 계수를 획득한다. 고대역 여기 신호는 LPC 계수에 따라 결정된 합성 필터를 사용하여 필터링되어 예측 고대역 신호를 획득하며; 예측 고대역 신호는 원래의 신호 중 고대역 신호와 비교되어 고주파 이득 파라미터를 획득하며; 고주파 이득 파라미터 및 LPC 계수는 고대역 신호를 복원하기 위해 디코더 측에 전달된다. 디코더 측에서, 저대역 신호의 디코딩 동안 추출된 저주파 인코딩 파라미터를 사용하여 고대역 여기 신호를 복원하고; LPC 계수를 사용하여 합성 신호를 생성하며; 고대역 여기 신호는 합성 필터를 사용하여 필터링되어 예측 고대역 신호를 복원하며; 예측 고대역 신호는 고주파 이득 파라미터를 사용하여 조정되어 최종 고대역 신호를 획득하며; 고대역 신호와 저대역 신호는 결합되어 최종 출력 신호를 획득한다.
시간 도메인에서 대역폭 확장을 수행하는 전술한 기술에서, 고대역 신호는 특정한 레이트의 조건으로 복원되지만, 성능 인디케이터는 결함이 있다. 복원된 출력 신호의 주파수 스펙트럼과 원래의 신호의 주파수 스펙트럼을 비교하면, 일반적인 주기의 음성 소리에 있어서, 복원된 고대역 신호에 극히 강력한 고조파 성분이 있다는 것을 알 수 있다. 그렇지만, 진본의 음성 신호에서의 고대역 신호는 극히 강력한 고조파 특징을 갖지 않는다. 그러므로 이러한 차이로 인해 복원된 신호가 소리를 낼 때 기계음이 분명하게 난다. 본 발명의 실시예의 목적은 시간 도메인에서 고대역 확장을 수행하는 전술한 기술을 향상시켜 복원된 신호에서 기계음을 감소시키거나 제거하는 것이다.
오디오 신호 인코딩 방법, 오디오 신호 디코딩 방법, 오디오 신호 인코딩 장치, 오디오 신호 디코딩 장치, 전송기, 수신기, 및 통신 시스템을 제공하며, 이것은 복원된 신호 내의 기계음을 감소시키거나 제거할 수 있으며, 이에 의해 인코딩 및 디코딩 성능을 향상시킨다.
제1 관점에 따라, 오디오 신호 인코딩 방법이 제공되며, 상기 방법은: 인코딩될 시간 도메인 신호를 저대역 신호 및 고대역 신호로 분할하는 단계; 상기 저대역 신호를 인코딩하여 저주파 인코딩 파라미터를 획득하는 단계; 상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하고, 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호(high band excitation signal)를 예측하는 단계 - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성(voiced characteristic)의 정도를 나타내는 데 사용됨 - ; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계; 및 상기 합성 여기 신호 및 상기 고대역 신호에 기초하여 고주파 인코딩 파라미터를 획득하는 단계를 포함한다.
제1 관점을 참조하여, 제1 관점의 실시 방식에서, 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계는: 프리엠파시스 인자(pre-emphasis factor)를 사용함으로써 상기 랜덤 노이즈에 대해, 상기 랜덤 노이즈의 고주파 부분을 강화하기 위한 프리엠파시스 연산을 수행하여 프리엠파시스 노이즈를 획득하는 단계; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 프리엠파시스 노이즈를 가중하여 프리엠파시스 여기 신호를 생성하는 단계; 및 디엠파시스 인자(de-emphasis factor)를 사용함으로써 상기 프리엠파시스 여기 신호에 대해, 상기 프리엠파시스 여기 신호의 고주파 부분을 낮추는 디엠파시스 연산(de-emphasis operation)을 수행하여 합성 여기 신호를 획득하는 단계를 포함할 수 있다.
제1 관점 및 전술한 실시 방식을 참조하여, 제1 관점의 다른 실시 방식에서, 상기 디엠파시스 인자는 상기 프리엠파시스 인자 및 상기 프리엠파시스 여기 신호 내의 프리엠파시스 노이즈의 비율에 기초하여 결정될 수 있다.
제1 관점 및 전술한 실시 방식을 참조하여, 제1 관점의 다른 실시 방식에서, 상기 저주파 인코딩 파라미터는 피치 주기(pitch period)를 포함하며, 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계는: 상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하는 단계; 및 변형된 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계를 포함할 수 있다.
제1 관점 및 전술한 실시 방식을 참조하여, 제1 관점의 다른 실시 방식에서, 상기 저주파 인코딩 파라미터는 대수 코드북(algebraic codebook), 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 및 피치 주기를 포함하며, 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하는 단계는: 상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하는 단계; 및 변형된 음성 정도 인자를 사용함으로써 대수 코드북 및 랜덤 노이즈를 가중하여 가중 결과를 획득하며, 상기 가중 결과와 상기 대수 코드북 이득의 적(product) 및 상기 적응 코드북과 상기 적응 코드북 이득의 적을 가산하여 고대역 여기 신호를 예측하는 단계를 포함할 수 있다.
제1 관점 및 전술한 실시 방식을 참조하여, 제1 관점의 다른 실시 방식에서,
상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하는 단계는 다음의 공식에 따라 수행되며,
Figure pct00001
여기서 voice_fac는 음성 정도 인자이고, T0는 피치 주기이고, a1, a2, 및 b1 > 0, b1 ≥ 0이고, threshold_min 및 threshold_max는 각각 피치 주기의 사전설정된 최솟값 및 사전설정된 최댓값이며, voice_fac_A는 변형된 음성 정도 인자이다.
제1 관점 및 전술한 실시 방식을 참조하여, 제1 관점의 다른 실시 방식에서, 상기 오디오 신호 인코딩 방법은: 상기 저주파 인코딩 파라미터 및 상기 고주파 인코딩 파라미터에 따라 코딩된 비트스트림을 생성하여 코딩된 비트스트림을 디코더 측에 송신하는 단계를 더 포함할 수 있다.
제2 관점에 따라, 오디오 신호 디코딩 방법이 제공되며, 상기 방법은: 인코딩된 정보 내의 저주파 인코딩 파라미터와 고주파 인코딩 파라미터를 구별하는 단계; 상기 저주파 인코딩 파라미터를 디코딩하여 저대역 신호를 획득하는 단계; 상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하고, 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하는 단계 - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용됨 - ; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계; 상기 합성 여기 신호 및 상기 고주파 인코딩 파라미터에 기초하여 고대역 신호를 획득하는 단계; 및 상기 저대역 신호 및 상기 고대역 신호를 결합하여 최종 디코딩된 신호를 획득하는 단계를 포함한다.
제2 관점을 참조하여, 제2 관점의 다른 실시 방식에서, 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계는: 프리엠파시스 인자를 사용함으로써 상기 랜덤 노이즈에 대해, 상기 랜덤 노이즈의 고주파 부분을 강화하기 위한 프리엠파시스 연산을 수행하여 프리엠파시스 노이즈를 획득하는 단계; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 프리엠파시스 노이즈를 가중하여 프리엠파시스 여기 신호를 생성하는 단계; 및 디엠파시스 인자를 사용함으로써 상기 프리엠파시스 여기 신호에 대해, 상기 프리엠파시스 여기 신호의 고주파 부분을 낮추는 디엠파시스 연산을 수행하여 합성 여기 신호를 획득하는 단계를 포함할 수 있다.
제2 관점 및 전술한 실시 방식을 참조하여, 제2 관점의 다른 실시 방식에서, 상기 디엠파시스 인자는 상기 프리엠파시스 인자 및 상기 프리엠파시스 여기 신호 내의 프리엠파시스 노이즈의 비율에 기초하여 결정될 수 있다.
제2 관점 및 전술한 실시 방식을 참조하여, 제2 관점의 다른 실시 방식에서,
상기 저주파 인코딩 파라미터는 피치 주기를 포함할 수 있으며, 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계는: 상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하는 단계; 및 변형된 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계를 포함할 수 있다.
제2 관점 및 전술한 실시 방식을 참조하여, 제2 관점의 다른 실시 방식에서, 상기 저주파 인코딩 파라미터는 대수 코드북, 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 및 피치 주기를 포함할 수 있으며, 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하는 단계는: 상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하는 단계; 및 변형된 음성 정도 인자를 사용함으로써 대수 코드북 및 랜덤 노이즈를 가중하여 가중 결과를 획득하며, 상기 가중 결과와 상기 대수 코드북 이득의 적 및 상기 적응 코드북과 상기 적응 코드북 이득의 적을 가산하여 고대역 여기 신호를 예측하는 단계를 포함할 수 있다.
제2 관점 및 전술한 실시 방식을 참조하여, 제2 관점의 다른 실시 방식에서, 상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하는 단계는 다음의 공식에 따라 수행되며,
Figure pct00002
여기서 voice_fac는 음성 정도 인자이고, T0는 피치 주기이고, a1, a2, 및 b1 > 0, b1 ≥ 0이고, threshold_min 및 threshold_max는 각각 피치 주기의 사전설정된 최솟값 및 사전설정된 최댓값이며, voice_fac_A는 변형된 음성 정도 인자이다.
제3 관점에 따라, 오디오 신호 인코딩 장치가 제공되며, 상기 장치는: 인코딩될 시간 도메인 신호를 저대역 신호 및 고대역 신호로 분할하도록 구성되어 있는 분할 유닛; 상기 저대역 신호를 인코딩하여 저주파 인코딩 파라미터를 획득하도록 구성되어 있는 저주파 인코딩 유닛; 상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하도록 구성되어 있는 계산 유닛 - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용됨 - ; 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하도록 구성되어 있는 예측 유닛; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하도록 구성되어 있는 합성 유닛; 및 상기 합성 여기 신호 및 상기 고대역 신호에 기초하여 고주파 인코딩 파라미터를 획득하도록 구성되어 있는 고주파 인코딩 유닛을 포함한다.
제3 관점을 참조하여, 제3 관점의 다른 실시 방식에서, 상기 합성 유닛은: 프리엠파시스 인자를 사용함으로써 상기 랜덤 노이즈에 대해, 상기 랜덤 노이즈의 고주파 부분을 강화하기 위한 프리엠파시스 연산을 수행하여 프리엠파시스 노이즈를 획득하도록 구성되어 있는 프리엠파시스 컴포넌트; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 프리엠파시스 노이즈를 가중하여 프리엠파시스 여기 신호를 생성하도록 구성되어 있는 가중 컴포넌트; 및 디엠파시스 인자를 사용함으로써 상기 프리엠파시스 여기 신호에 대해, 상기 프리엠파시스 여기 신호의 고주파 부분을 낮추는 디엠파시스 연산을 수행하여 합성 여기 신호를 획득하도록 구성되어 있는 디엠파시스 컴포넌트를 포함할 수 있다.
제3 관점 및 전술한 실시 방식을 참조하여, 제3 관점의 다른 실시 방식에서, 상기 디엠파시스 인자는 상기 프리엠파시스 인자 및 상기 프리엠파시스 여기 신호 내의 프리엠파시스 노이즈의 비율에 기초하여 결정된다.
제3 관점 및 전술한 실시 방식을 참조하여, 제3 관점의 다른 실시 방식에서, 상기 저주파 인코딩 파라미터는 피치 주기(pitch period)를 포함하며, 상기 합성 유닛은: 상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하도록 구성되어 있는 제1 변형 컴포넌트; 및 변형된 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하도록 구성되어 있는 가중 컴포넌트를 포함할 수 있다.
제3 관점 및 전술한 실시 방식을 참조하여, 제3 관점의 다른 실시 방식에서, 상기 저주파 인코딩 파라미터는 대수 코드북, 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 및 피치 주기를 포함할 수 있으며, 상기 예측 유닛은: 상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하도록 구성되어 있는 제2 변형 컴포넌트; 및 변형된 음성 정도 인자를 사용함으로써 대수 코드북 및 랜덤 노이즈를 가중하여 가중 결과를 획득하며, 상기 가중 결과와 상기 대수 코드북 이득의 적 및 상기 적응 코드북과 상기 적응 코드북 이득의 적을 가산하여 고대역 여기 신호를 예측하도록 구성되어 있는 예측 컴포넌트를 포함할 수 있다.
제3 관점 및 전술한 실시 방식을 참조하여, 제3 관점의 다른 실시 방식에서, 상기 제1 변형 컴포넌트와 상기 제2 변형 컴포넌트 중 적어도 하나는 다음의 공식에 따라 상기 음성 정도 인자를 변형하며,
Figure pct00003
여기서 voice_fac는 음성 정도 인자이고, T0는 피치 주기이고, a1, a2, 및 b1 > 0, b1 ≥ 0이고, threshold_min 및 threshold_max는 각각 피치 주기의 사전설정된 최솟값 및 사전설정된 최댓값이며, voice_fac_A는 변형된 음성 정도 인자이다.
제3 관점 및 전술한 실시 방식을 참조하여, 제3 관점의 다른 실시 방식에서, 상기 오디오 신호 인코딩 장치는: 상기 저주파 인코딩 파라미터 및 상기 고주파 인코딩 파라미터에 따라 코딩된 비트스트림을 생성하여 코딩된 비트스트림을 디코더 측에 송신하도록 구성되어 있는 비트스트림 생성 유닛을 더 포함할 수 있다.
제4 관점에 따라, 오디오 신호 디코딩 장치가 제공되며, 상기 장치는: 인코딩된 정보 내의 저주파 인코딩 파라미터와 고주파 인코딩 파라미터를 구별하도록 구성되어 있는 구별 유닛; 상기 저주파 인코딩 파라미터를 디코딩하여 저대역 신호를 획득하도록 구성되어 있는 저주파 디코딩 유닛; 상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하도록 구성되어 있는 계산 유닛 - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용됨 - ; 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하도록 구성되어 있는 예측 유닛; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하도록 구성되어 있는 합성 유닛; 상기 합성 여기 신호 및 상기 고주파 인코딩 파라미터에 기초하여 고대역 신호를 획득하도록 구성되어 있는 고주파 디코딩 유닛; 및 상기 저대역 신호 및 상기 고대역 신호를 결합하여 최종 디코딩된 신호를 획득하도록 구성되어 있는 결합 유닛을 포함한다.
제4 관점을 참조하여, 제4 관점의 다른 실시 방식에서, 상기 합성 유닛은: 프리엠파시스 인자를 사용함으로써 상기 랜덤 노이즈에 대해, 상기 랜덤 노이즈의 고주파 부분을 강화하기 위한 프리엠파시스 연산을 수행하여 프리엠파시스 노이즈를 획득하도록 구성되어 있는 프리엠파시스 컴포넌트; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 프리엠파시스 노이즈를 가중하여 프리엠파시스 여기 신호를 생성하도록 구성되어 있는 가중 컴포넌트; 및 디엠파시스 인자를 사용함으로써 상기 프리엠파시스 여기 신호에 대해, 상기 프리엠파시스 여기 신호의 고주파 부분을 낮추는 디엠파시스 연산을 수행하여 합성 여기 신호를 획득하도록 구성되어 있는 디엠파시스 컴포넌트를 포함할 수 있다.
제4 관점 및 전술한 실시 방식을 참조하여, 제4 관점의 다른 실시 방식에서, 상기 디엠파시스 인자는 상기 프리엠파시스 인자 및 상기 프리엠파시스 여기 신호 내의 프리엠파시스 노이즈의 비율에 기초하여 결정된다.
제4 관점 및 전술한 실시 방식을 참조하여, 제4 관점의 다른 실시 방식에서, 상기 저주파 인코딩 파라미터는 피치 주기를 포함할 수 있으며, 상기 합성 유닛은: 상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하도록 구성되어 있는 제1 변형 컴포넌트; 및 변형된 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하도록 구성되어 있는 가중 컴포넌트를 포함할 수 있다.
제4 관점 및 전술한 실시 방식을 참조하여, 제4 관점의 다른 실시 방식에서, 상기 저주파 인코딩 파라미터는 대수 코드북, 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 및 피치 주기를 포함할 수 있으며, 상기 예측 유닛은: 상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하도록 구성되어 있는 제2 변형 유닛; 및 변형된 음성 정도 인자를 사용함으로써 대수 코드북 및 랜덤 노이즈를 가중하여 가중 결과를 획득하며, 상기 가중 결과와 상기 대수 코드북 이득의 적 및 상기 적응 코드북과 상기 적응 코드북 이득의 적을 가산하여 고대역 여기 신호를 예측하도록 구성되어 있는 예측 컴포넌트를 포함한다.
제4 관점 및 전술한 실시 방식을 참조하여, 제4 관점의 다른 실시 방식에서, 상기 제1 변형 컴포넌트와 상기 제2 변형 컴포넌트 중 적어도 하나는 다음의 공식에 따라 상기 음성 정도 인자를 변형하며,
Figure pct00004
여기서 voice_fac는 음성 정도 인자이고, T0는 피치 주기이고, a1, a2, 및 b1 > 0, b1 ≥ 0이고, threshold_min 및 threshold_max는 각각 피치 주기의 사전설정된 최솟값 및 사전설정된 최댓값이며, voice_fac_A는 변형된 음성 정도 인자이다.
제5 관점에 따라, 전송기가 제공되며, 상기 전송기는: 제3 관점에 따른 오디오 신호 인코딩 장치; 및 상기 오디오 신호 인코딩 장치에 의해 생성되는 고주파 인코딩 파라미터 및 저주파 인코딩 파라미터에 대해 비트 할당을 수행하여 비트스트림을 생성하고 상기 비트스트림을 전송하도록 구성되어 있는 전송기 유닛을 포함한다.
제6 관점에 따라, 수신기가 제공되며, 상기 수신기는: 비트스트림을 수신하고 상기 비트스트림으로부터 인코딩된 정보를 추출하도록 구성되어 있는 수신기 유닛; 및 제4 관점에 따른 오디오 신호 디코딩 장치를 포함한다.
제7 관점에 따라, 통신 시스템이 제공되며, 상기 통신 시스템은 제5 관점에 따른 전송 또는 제6 관점에 따른 수신기를 포함한다.
본 발명의 실시예에서의 전술한 기술적 솔루션에서, 인코딩 및 디코딩 동안, 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하며, 고대역 신호의 특성이 음성 신호에 기초하여 더욱 정확하게 제공될 수 있으며, 이에 의해 인코딩 및 디코딩 효과가 향상된다.
본 발명의 실시예의 기술적 솔루션을 더 명확하게 설명하기 위해, 이하에서는 본 발명의 실시예를 설명하는 데 필요한 첨부된 도면에 대해 간략하게 설명한다. 당연히, 이하의 실시예의 첨부된 도면은 본 발명의 일부의 실시예에 지나지 않으며, 당업자라면 창조적 노력 없이 첨부된 도면으로부터 다른 도면을 도출해낼 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 오디오 신호 인코딩 방법에 대한 개략적인 흐름도이다.
도 2는 본 발명의 실시예에 따른 오디오 신호 디코딩 방법에 대한 개략적인 흐름도이다.
도 3은 본 발명의 실시예에 따른 오디오 신호 인코딩 장치에 대한 개략적인 블록도이다.
도 4는 본 발명의 실시예에 따른 오디오 신호 인코딩 장치에서의 예측 유닛 및 합성 유닛에 대한 개략적인 블록도이다.
도 5는 본 발명의 실시예에 따른 오디오 신호 디코딩 장치에 대한 개략적인 블록도이다.
도 6은 본 발명의 실시예에 따른 전송기에 대한 개략적인 블록도이다.
도 7은 본 발명의 실시예에 따른 수신기에 대한 개략적인 블록도이다.
도 8은 본 발명의 다른 실시예에 따른 장치에 대한 개략적인 블록도이다.
이하에서는 본 발명의 실시예에 첨부된 도면을 참조하여 본 발명의 실시예의 기술적 솔루션에 대해 명확하고 완전하게 설명한다. 당연히, 설명된 실시예는 본 발명의 모든 실시예가 아닌 일부에 지나지 않는다. 당업자가 창조적 노력 없이 본 발명의 실시예에 기초하여 획득하는 모든 다른 실시예는 본 발명의 보호 범위 내에 있게 된다.
디지털 신호 처리 분야에서, 오디오 코덱은 다양한 전자기기, 예를 들어, 휴대전화, 무선 기기, 개인휴대단말(PDA), 휴대형 또는 포터블 컴퓨터, GPS 수신기/내비게이터, 카메라, 오디오/비디오 플레이어, 캠코더, 비디오 레코더, 및 모니터링 기기에 폭넓게 적용된다. 일반적으로, 이러한 유형의 전자 기기는 오디오 인코더 또는 오디오 디코더를 포함하여 오디오 신호의 인코딩 및 디코딩을 실행하며, 여기서 오디오 인코더 또는 오디오 디코더는 디지털 회로 또는 칩, 예를 들어, 디지털 신호 프로세서(DSP)에 의해 직접적으로 실행될 수 있거나, 소프트웨어 코드를 사용하여 실행되어 프로세서를 작동시켜 소프트웨어 코드로 프로세스를 실행할 수 있다.
또한, 오디오 코덱 및 오디오 인코딩 및 디코딩은 또한 다양한 통신 시스템, 예를 들어, GSM, 코드분할다중접속(Code Division Multiple Access: CDMA) 시스템, 범용 패킷 무선 서비스(General Packet Radio Service: GPRS), 및 롱텀에볼루션(Long Term Evolution: LTE)에 적용 가능하다.
도 1은 본 발명의 실시예에 따른 오디오 신호 인코딩 방법에 대한 개략적인 흐름도이다. 오디오 신호 인코딩 방법은: 인코딩될 시간 도메인 신호를 저대역 신호 및 고대역 신호로 분할하는 단계(110); 상기 저대역 신호를 인코딩하여 저주파 인코딩 파라미터를 획득하는 단계(120); 상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하고, 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호(high band excitation signal)를 예측하는 단계(130) - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성(voiced characteristic)의 정도를 나타내는 데 사용됨 - ; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계(140); 및 상기 합성 여기 신호 및 상기 고대역 신호에 기초하여 고주파 인코딩 파라미터를 획득하는 단계(150)를 포함한다.
110에서, 인코딩될 시간 도메인 신호는 저대역 신호와 고대역 신호로 분할된다. 분할이란 시간 도메인 신호를 처리하기 위해 2개의 신호로 분할하는 것을 말하며, 이에 따라 저대역 신호와 고대역 신호는 개별적으로 처리될 수 있다. 분할은 임의의 종래의 기술이나 미래의 분할 기술을 사용하여 실행될 수 있다. 여기서 저주파의 의미는 고주파의 의미에 상대적인 것이다. 예를 들어, 주파수 임계값이 설정될 수 있고, 주파수 임계값보다 낮은 주파수는 저주파이고, 주파수 임계값보다 높은 주파수는 고주파이다. 실제로, 주파수 임계값은 조건에 따라 설정될 수 있으며, 하나의 신호에서 저대역 신호 성분 및 고대역 신호 성분이 또한 분할을 실행할 수 있도록 다른 방식으로 구별될 수 있다.
120에서, 저대역 신호는 인코딩되어 저주파 인코딩 파라미터를 획득한다. 인코딩에 의해, 저대역 신호를 처리하여 저주파 인코딩 파라미터를 획득하고, 이에 따라 디코더 측은 저주파 인코딩 파라미터에 따라 저대역 신호를 복원한다. 저주파 인코딩 파라미터는 저대역 신호를 복원하기 위해 디코더 측에서 요구하는 파라미터이다. 예를 들어, 인코딩은 대수 코드 여기 선형 예측(Algebraic Code Excited Linear Prediction: ACELP) 알고리즘을 사용하는 인코더(ACELP 인코더)를 사용함으로써 수행될 수 있고, 이 경우에 획득된 저주파 인코딩 파라미터는 예를 들어 대수 코드북(algebraic codebook), 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 및 피치 주기를 포함할 수 있으며, 다른 파라미터를 포함할 수도 있다. 저주파 인코딩 파라미터는 저대역 신호를 복원하도록 디코더 측에 전달될 수 있다. 또한, 대수 코드북 및 적응 코드북이 인코더 측으로부터 디코더 측으로 전달될 때, 대수 코드북 인덱스 및 적응 코드북 인덱스만이 전달될 수 있으며, 디코더 측은 대수 코드북 인덱스 및 적응 코드북 인덱스에 따라 대응하는 대수 코드북 및 적응 코드북을 획득하여, 복원을 실행한다.
실제로, 저대역 신호는 조건에 따라 적절한 인코딩 기술을 사용함으로써 인코딩될 수 있다. 인코딩 기술이 변경되면, 저주파 인코딩 파라미터의 조합도 변한다. 본 발명의 본 실시예에서, ACELP 알고리즘을 사용하는 인코딩 기술을 예를 들어 설명한다.
130에서, 음성 정도 인자(voiced degree factor)가 저주파 인코딩 파라미터에 따라 계산되고, 고대역 여기 신호는 저주파 인코딩 파라미터에 따라 예측되며, 여기서 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용된다. 그러므로 130은 저주파 인코딩 파라미터로부터 음성 정도 인자 및 고대역 여기 신호를 획득하는 데 사용되며, 음성 정도 인자 및 고대역 여기 신호는 고대역 신호의 다른 특성을 나타내는 데 사용되며, 즉 입력 신호의 고주파 특성은 130에서 획득되며, 이에 따라 고주파 특성은 고대역 신호의 인코딩에 사용된다. ACELP 알고리즘을 사용하는 인코딩 기술을 이하에서 예로 들어 음성 정도 인자 및 고대역 여기 신호 모두의 계산을 설명한다.
음성 정도 인자 voice_fac는 이하의 식(1)에 따라 계산될 수 있다.
Figure pct00005
여기서
Figure pct00006
식(1)
Figure pct00007
는 적응 코드북의 에너지이고,
Figure pct00008
는 대수 코드북의 에너지이고, a, b, c는 사전설정된 값이다. 파라미터 a, b, c는 이하의 규칙에 따라 설정된다: voice_fac의 값은 0과 1 사이이고, 선형 변화의 voice_factor는 비선형 변화의 voice_fac으로 변하며, 이에 따라 음성 정도 인자 voice_fac의 특성은 더 우수하게 제공된다.
또한, 음성 정도 인자 voice_fac가 고대역 신호의 특성을 더 우수하게 제공할 수 있도록 하기 위해, 음성 정도 인자는 저주파 인코딩 파라미터에서의 피치 주기를 사용하여 추가로 변형될 수 있다. 예를 들어, 식(1)에서의 음성 정도 인자 voice_fac는 이하의 식(2)에 따라 추가로 변형될 수 있다.
Figure pct00009
여기서 voice_fac는 음성 정도 인자이고, T0는 피치 주기이고, a1, a2, 및 b1 > 0, b1 ≥ 0이고, threshold_min 및 threshold_max는 각각 피치 주기의 사전설정된 최솟값 및 사전설정된 최댓값이며, voice_fac_A는 변형된 음성 정도 인자이다. 예를 들어, 식(2)에서의 모든 파라미터의 값들은 다음과 같을 수 있다: a1=0.0126, b1=1.23, a2=0.0087, b2=0, threshold_min=57.75, 및 threshold_max=115.5. 파라미터 값은 단지 예시에 불과하며 다른 값이 조건에 따라 설정될 수 있다. 변형되지 않은 음성 정도 인자와 비교해 보면, 변형된 음성 정도 인자가 고대역 신호에 의해 제공되는 음성 특성의 정도를 더 정확하게 나타낼 수 있으며, 이에 의해 일반적인 주기의 음성 신호가 확장된 후에 생기는 기계음이 덜 나게 한다.
고대역 여기 신호 Ex는 이하의 식(3) 또는 식(4)에 따라 계산될 수 있다:
Figure pct00010
식(3)
Figure pct00011
식(4)
여기서 FixCB는 대수 코드북이고, seed는 랜덤 노이즈이고, gc는 대수 코드북 이득이고, AdpCB는 적응 코드북이며, ga는 적응 코드북 이득이다. 식(3) 또는 식(4)에서, 대수 코드북 FixCB 및 랜덤 노이즈 seed는 음성 정도 인자를 사용함으로써 가중되어, 가중 결과를 획득하며; 가중 결과와 대수 코드북 이득 gc의 적(product), 및 적응 코드북 AdpCB과 적응 코드북 이득 ga의 적이 가산되어, 고대역 여기 신호 Ex를 획득한다. 대안으로, 식(3) 또는 식(4)에서, 음성 정도 인자 voice_fac는 식(2)에서 변형된 음성 정도 인자 voice_fac_A로 대체될 수 있으므로 고대역 신호에 의해 제공되는 음성 특성의 정도를 더 정확하게 나타낼 수 있으며, 즉 음성 신호의 고대역 신호는 더 현실적으로 나타날 수 있으며, 이에 의해 인코딩 효과가 향상된다.
음성 정도 인자 및 고대역 여기 신호를 계산하는 전술한 방식은 단지 예시에 불과하며, 본 발명의 본 실시예를 제한하려는 것이 아니다는 것에 유의해야 한다. ACELP 알고리즘을 사용하지 않는 다른 인코딩 기술에서, 음성 정도 인자 및 고대역 여기 신호는 다른 방식을 사용하여 계산될 수도 있다.
140에서, 고대역 여기 신호 및 랜덤 노이즈는 음성 정도 인자를 사용함으로써 가중되어, 합성 여기 신호를 획득한다. 전술한 바와 같이, 종래기술에서는, 일반적인 주기의 음성 신호에 있어서, 저주파 인코딩 파라미터에 따라 예측된 고대역 여기 신호의 주기성이 극히 강하기 때문에, 복원된 오디오 신호가 소리를 낼 때 강한 기계음이 생긴다.
140에 의해, 저대역 신호 및 노이즈에 따라 예측된 고대역 여기 신호는 음성 정도 인자를 사용함으로써 가중되고, 이것은 저주파 인코딩 파라미터에 따라 예측되는 고대역 여기 신호의 주기성을 약하게 할 수 있으므로, 복원된 오디오 신호에서 기계음을 약하게 한다.
가중은 조건에 따라 적절한 가중을 사용함으로써 실행될 수 있다. 예를 들어, 합성 여기 신호 Ex는 식(5)에 따라 획득될 수 있다:
Figure pct00012
식(5)
여기서 Ex는 고대역 여기 신호이고, seed는 랜덤 노이즈이고, voice_fac는 음성 정도 인자이고, pow1은 고대역 여기 신호이며, pow2는 랜덤 노이즈의 에너지이다. 대안으로, 식(5)에서, 음성 정도 인자 voice_fac는 식(2)에서의 변형된 음성 정도 인자 voice_fac_A로 대체될 수 있으므로, 음성 신호의 고대역 신호를 더 정확하게 나타낼 수 있으며, 이에 의해 인코딩 효과가 향상된다.
식(2)에서, a1=0.0126, b1=1.23, a2=0.0087, b2=0, threshold_min=57.75, 및 threshold_max=115.5인 경우, 합성 여기 신호 Ex는 식(5)에 따라 획득되며, 피치 주기 T0가 threshold_max보다 크고 threshold_min보다 작은 고대역 여기 신호는 더 큰 가중을 가지며, 다른 고대역 여기 신호는 더 작은 가중을 가진다. 조건에 따라, 합성 여기 신호 역시 식(5) 외에 다른 방식을 사용하여 계산될 수 있다는 것에 유의해야 한다.
또한, 고대역 여기 신호 및 랜덤 노이즈가 음성 정도 인자를 사용함으로써 가중될 때, 랜덤 노이즈에 대해 미리 프리엠파시스(pre-emphasis)도 수행될 수 있고, 가중 후에는 랜덤 노이즈에 대해 디엠파시스(de-emphasis)가 수행될 수 있다.
구체적으로, 140은: 프리엠파시스 인자(pre-emphasis factor)를 사용함으로써 랜덤 노이즈에 대해, 상기 랜덤 노이즈의 고주파 부분을 강화하기 위한 프리엠파시스 연산을 수행하여 프리엠파시스 노이즈를 획득하는 단계; 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 프리엠파시스 노이즈를 가중하여 프리엠파시스 여기 신호를 생성하는 단계; 및 디엠파시스 인자(de-emphasis factor)를 사용함으로써 상기 프리엠파시스 여기 신호에 대해, 상기 프리엠파시스 여기 신호의 고주파 부분을 낮추는 디엠파시스 연산(de-emphasis operation)을 수행하여 합성 여기 신호를 획득하는 단계를 포함할 수 있다.
일반적인 음성 사운드에 있어서, 노이즈 컴포넌트는 일반적으로 저주파로부터 고주파로 더 강하게 된다. 이에 기초하여, 랜덤 노이즈에 대해 프리엠파시스 연산이 수행되어, 음성 사운드의 노이즈 신호 특성을 정확하게 나타내며, 즉, 노이즈의 고주파 부분이 강화되고 노이즈의 저주파 부분이 낮아진다. 프리엠파시스 연산의 예로서, 프리엠파시스 연산은 이하의 식(6)을 사용함으로써 랜덤 노이즈 seed(n)에 대해 수행될 수 있다:
Figure pct00013
식(6)
여기서, n=1, 2, ... N이고,α는 프리엠파시스 인자이며 0 < α < 1이다. 프리엠파시스 인자는 랜덤 노이즈의 특성에 기초하여 적절하게 설정될 수 있으므로, 음성 사운드의 노이즈 신호 특성을 정확하게 나타낸다. 프리엠파시스 연산이 식(6)을 사용함으로써 수행되는 경우, 디엠파시스 연산은 이하의 식(7)을 사용하여 프리엠파시스 여기 신호 S(i)에 대해 수행될 수 있다:
Figure pct00014
식(7)
여기서, n=1, 2, ... N이고, β는 사전설정된 디엠파시스 인자이다. 전술한 식(6)에 나타난 프리엠파시스 연산은 단지 예시에 불과하며, 실제로, 프리엠파시스는 다른 방식으로 수행될 수 있다. 또한, 사용된 프리엠파시스 연산이 변할 때, 디엠파시스 연산도 그에 대응해서 변할 수 있다. 디엠파시스 인자 β는 프리엠파시스 인자 α 및 프리엠파시스 여기 신호 내의 프리엠파시스 노이즈의 비율에 기초하여 결정될 수 있다. 예를 들어, 고대역 여기 신호 및 프리엠파시스 노이즈가 음성 정도 인자를 사용하여 식(5)에 따라 가중될 때(프리엠파시스 여기 신호는 이 경우에 획득되며, 합성 여기 신호는 디엠파시스가 프리엠파시스 여기 신호에 대해 수행된 후에만 획득된다), 디엠파시스 인자 β는 이하의 식(8) 또는 식(9)에 따라 결정될 수 있다:
Figure pct00015
여기서, 식(8)
Figure pct00017
여기서,
Figure pct00018
식(9)
150에서, 고주파 인코딩 파라미터는 합성 여기 신호 및 고대역 신호에 기초하여 획득된다. 일례로, 고주파 인코딩 파라미터는 고주파 이득 파라미터 및 고주파 LPC 계수를 포함한다. 고주파 LPC 계수는 원래의 신호 중 고대역 신호에 대해 LPC 분석을 수행함으로써 획득될 수 있고; 예측된 고대역 신호는 고대역 여기 신호가 LPC 계수에 따라 결정된 합성 필터를 사용함으로써 필터링된 후에 획득되며; 고주파 이득 파라미터는 예측된 고대역 신호와 원래의 신호 중 고대역 신호를 비교함으로써 획득되며, 여기서 고주파 이득 파라미터 및 LPC 계수는 디코더 측에 전달되어 고대역 신호를 복원한다. 또한, 고주파 인코딩 파라미터는 또한 다양한 종래기술 또는 미래의 기술을 사용함으로써 획득될 수 있으며, 합성 여기 신호 및 고대역 신호에 기초하여 고주파 인코딩 파라미터를 획득하는 특정한 방식은 본 발명에 제한되지 않는다. 저주파 인코딩 파라미터 및 고주파 인코딩 파라미터가 획득된 후, 신호의 인코딩이 수행되며, 이에 따라 신호는 복원을 위해 디코더 측에 전달될 수 있다.
저주파 인코딩 파라미터 및 고주파 인코딩 파라미터가 획득된 후, 오디오 신호 인코딩 방법(100)은: 고주파 인코딩 파라미터 및 고주파 인코딩 파라미터에 따라 코딩된 비트스트림을 생성하여 코딩된 비트스트림을 디코더 측에 송신하는 단계를 더 포함할 수 있다.
본 발명의 실시예에서의 전술한 오디오 신호 인코딩 방법에서, 고대역 여기 신호 및 랜덤 노이즈는 음성 정도 인자를 사용함으로써 가중되어, 합성 여기 신호를 획득하고, 고대역 신호의 특성은 음성 신호에 기초하여 더 정확하게 제공될 수 있으며, 이에 의해 인코딩 효과가 향상된다.
도 2는 본 발명의 실시예에 따른 오디오 신호 디코딩 방법에 대한 개략적인 흐름도이다. 오디오 신호 디코딩 방법은: 인코딩된 정보 내의 저주파 인코딩 파라미터와 고주파 인코딩 파라미터를 구별하는 단계(210); 상기 저주파 인코딩 파라미터를 디코딩하여 저대역 신호를 획득하는 단계(220); 상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하고, 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하는 단계(230) - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용됨 - ; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계(240); 상기 합성 여기 신호 및 상기 고주파 인코딩 파라미터에 기초하여 고대역 신호를 획득하는 단계(250); 및 상기 저대역 신호 및 상기 고대역 신호를 결합하여 최종 디코딩된 신호를 획득하는 단계(260)를 포함한다.
210에서, 저주파 인코딩 파라미터와 고주파 인코딩 파라미터는 인코딩된 정보에서 구별된다. 저주파 인코딩 파라미터와 고주파 인코딩 파라미터는 인코더 측으로부터 전달되는 파라미터이며 저대역 신호와 고대역 신호를 복원하는 데 사용된다. 저주파 인코딩 파라미터는 예를 들어 대수 코드북, 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 피치 주기, 및 다른 파라미터를 포함할 수 있고, 고주파 인코딩 파라미터는 예를 들어 LPC 계수, 고주파 이득 파라미터, 및 다른 파라미터를 포함할 수 있다. 또한, 다른 인코딩 기술에 따라, 저주파 인코딩 파라미터와 고주파 인코딩 파라미터는 교대로 다른 파라미터를 포함할 수 있다.
220에서, 저주파 인코딩 파라미터는 저대역 신호를 획득하기 위해 디코딩된다. 특정한 디코딩 모드는 인코더 측의 인코딩 방식에 대응한다. 일례로, 인코딩이 ACELP 알고리즘을 사용하는 ACELP 인코더를 사용함으로써 인코더 측 상에서 수행될 때, ACELP 디코더는 220에서 사용되어 저대역 신호를 획득한다.
230에서, 음성 정도 인자는 저주파 인코딩 파라미터에 따라 계산되며, 저주파 인코딩 파라미터에 따라 고대역 여기 신호가 예측되며, 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용된다. 230은 저주파 인코딩 파라미터에 따라 인코딩된 신호의 고주파 특성을 획득하는 데 사용되며, 이에 따라 고주파 특성은 고대역 신호의 디코딩(또는 복원)에 사용된다. ACELP 알고리즘을 사용하는 인코딩 기술에 대응하는 디코딩 기술은 이하의 설명을 위해 예로 사용된다.
음성 정도 인자 voice_fac는 전술한 식(1)에 따라 계산될 수 있으며, 고대역 신호의 특성을 더 우수하게 제공하기 위해서이며, 음성 정도 인자 voice_fac는 저주파 인코딩 파라미터에서의 피치 주기를 사용함으로써 전술한 식(2)에 나타난 바와 같이 변형될 수 있으며, 변형된 음성 정도 인자 voice_fac_A가 획득될 수 있다. 변형되지 않은 정도 인자 voice_fac와 비교해 보면, 변형된 음성 정도 인자 voice_fac_A는 고대역 신호에 의해 제공되는 음성 특성의 정도를 더 정확하게 나타낼 수 있으며, 이에 의해 일반적인 주기의 음성 신호가 확장된 후에 생기는 기계음이 약해질 수 있다.
고대역 여기 신호 Ex는 전술한 식(3) 또는 식(4)에 따라 계산될 수 있으며, 즉 대수 코드북 및 랜덤 노이즈는 음성 정도 인자를 사용함으로써 가중되어, 가중 결과를 획득하며; 가중 결과와 대수 코드북 이득의 적 및 적응 코드북과 적응 코드북 이득의 적이 가산되어, 고대역 여기 신호 Ex를 획득한다. 마찬가지로, 음성 정도 인자 voice_fac는 식(2)에서의 변형된 음성 정도 인자 voice_fac_A로 대체되어, 디코딩 효과를 더 향상시킬 수 있다.
음성 정도 인자 및 고대역 여기 신호를 계산하는 전술한 방식은 단지 예시에 불과하며, 본 발명의 본 실시예를 제한하는 데 사용되지 않는다. ACELP 알고리즘을 사용하지 않는 다른 인코딩 기술에서, 음성 정도 인자 및 고대역 여기 신호는 또한 다른 방식으로 계산될 수도 있다.
230의 설명을 위해, 도 1을 참조하여 130의 전술한 설명을 참조한다.
240에서, 고대역 여기 신호 및 랜덤 노이즈는 음성 정도 인자를 사용함으로써 가중되어, 합성 여기 신호를 획득한다. 240에 의해, 고대역 여기 신호 및 랜덤 노이즈에 따라 예측된 고대역 여기 신호는 음성 정도 인자를 사용함으로써 가중되고, 이것은 저주파 인코딩 파라미터에 따라 예측된 고대역 여기 신호의 주기성을 약하게 할 수 있으며, 이에 의해 복원된 오디오 신호에서 기계음을 약하게 한다.
일례로, 240에서, 합성 여기 신호 Sex는 전술한 식(5)에 따라 획득되며, 식(5)에서의 음성 정도 인자 voice_fac는 식(2)에서의 변형된 음성 정도 인자 voice_fac_A로 대체되어, 음성 신호 중의 고대역 신호를 더 정확하게 나타낼 수 있으며, 이에 의해 인코딩 효과가 향상된다. 조건에 따라, 합성 여기 신호도 다른 방식으로 계산될 수 있다.
또한, 고대역 여기 신호 및 랜덤 노이즈가 음성 정도 인자 voice_fac(또는 변형된 음성 정도 인자 voice_fac_A)를 사용함으로써 가중될 때, 프리엠파시스 역시 랜덤 노이즈에 대해 미리 수행될 수 있으며, 디엠파시스는 가중 후에 랜덤 노이즈에 대해 수행될 수 있다. 구체적으로, 240은 프리엠파시스 인자 α를 사용함으로써 랜덤 노이즈에 대해, 랜덤 노이즈의 고주파 부분을 강화하는 프리엠파시스 연산(예를 들어, 프리엠파시스 연산은 식(6)을 사용함으로써 실행된다)를 수행하는 단계; 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 프리엠파시스 노이즈를 가중하여, 프리엠파시스 여기 신호를 생성하는 단계; 디엠파시스 인자 β를 사용함으로써 프리엠파시스 여기 신호에 대해, 프리엠파시스 여기 신호의 고주파 부분을 낮추는 디엠파시스 연산(예를 들어, 디엠파시스 연산이 실행된다)울 수행하여, 합성 여기 신호를 획득하는 단계를 포함한다. 프리엠파시스 인자 α는 조건에 따라 음성 사운드의 노이즈 신호 특성을 정확하게 나타내기 위해 사전설정될 수 있으며, 즉 노이즈의 고주파 부분은 강한 신호를 가지고 노이즈의 주파수 부분은 약한 신호를 가진다. 또한, 다른 유형의 노이즈도 또한 사용될 수 있으며, 이 경우, 일반적인 음성 사운드의 노이즈 특성을 나타내기 위해, 프리엠파시스 인자 α는 그에 대응해서 변해야 한다. 디엠파시스 인자 β는 프리엠파시스 인자 α 및 프리엠파시스 여기 신호 내의 프리엠파시스 인자의 비율에 기초하여 결정될 수 있다. 일례로, 디엠파시스 인자 β는 전술한 식(8) 또는 식(9)에 따라 결정될 수 있다.
240의 설명을 위해, 도 1을 참조하여 전술한 140의 설명을 참조한다.
250에서, 합성 여기 신호 및 고주파 인코딩 파라미터에 기초해서 고대역 신호가 획득된다. 250은 인코더 측 상에서 합성 여기 신호 및 고대역 신호에 기초해서 고주파 인코딩 파라미터를 획득하는 역방향 처리로 실행된다. 일례로, 고주파 인코딩 파라미터는 고주파 이득 파라미터 및 고주파 LPC 계수를 포함하고; 합성 필터는 고주파 인코딩 파라미터에서의 LPC 계수를 사용함으로써 생성될 수 있으며; 예측된 고대역 신호는 240에서 획득된 합성 여기 신호가 합성 필터에 의해 필터링된 후에 복원되며; 최종 고대역 신호는 예측된 고대역 신호가 고주파 인코딩 파라미터 내의 고주파 이득 파라미터를 사용함으로써 조정된 후에 획득된다. 또한, 240은 또한 다양한 종래의 기술 또는 미래의 기술을 사용하여 실행될 수도 있고, 합성 여기 신호 및 고주파 인코딩 파라미터에 기초하여 고대역 신호를 획득하는 특정한 방식은 본 발명에 대해 제한되지 않는다.
260에서, 저대역 신호와 고대역 신호를 결합하여 최종 디코딩된 신호를 획득한다. 이 결합 방식은 도 1에서의 110에서의 분할 방식에 대응하며, 이에 따라 디코딩이 실행되어 최종 출력 신호를 획득한다.
본 발명의 본 실시예에서의 전술한 오디오 신호에서, 고대역 여기 신호 및 랜덤 노이즈는 음성 정도 인자를 사용함으로써 가중되어, 합성 여기 신호를 획득하며, 고대역 신호의 특성은 음성 신호에 기초하여 더 정확하게 제공될 수 있으며, 이에 의해 디코딩 효과가 향상된다.
도 3은 본 발명의 실시예에 따른 오디오 신호 인코딩 장치(300)에 대한 개략적인 블록도이다. 오디오 신호 인코딩 장치(300)는: 인코딩될 시간 도메인 신호를 저대역 신호 및 고대역 신호로 분할하도록 구성되어 있는 분할 유닛(310); 상기 저대역 신호를 인코딩하여 저주파 인코딩 파라미터를 획득하도록 구성되어 있는 저주파 인코딩 유닛(320); 상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하도록 구성되어 있는 계산 유닛(330) - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용됨 - ; 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하도록 구성되어 있는 예측 유닛(340); 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하도록 구성되어 있는 합성 유닛(350); 및 상기 합성 여기 신호 및 상기 고대역 신호에 기초하여 고주파 인코딩 파라미터를 획득하도록 구성되어 있는 고주파 인코딩 유닛(360)을 포함한다.
입력 시간 도메인 신호를 수신한 후, 분할 유닛(310)은 종래의 기술 또는 미래의 기술을 사용하여 분할을 실행한다. 여기서 저주파의 의미는 고주파 의미의 상대적인 이다. 예를 들어, 주파수 임계값이 설정될 수 있고, 여기서 주파수 임계값보다 낮은 주파수는 저주파이고, 주파수 임계값보다 높은 주파수는 고주파이다. 실제로, 주파수 임계값은 조건에 따라 설정될 수 있으며, 하나의 신호에서 저대역 신호 성분 및 고대역 신호 성분이 또한 분할을 실행할 수 있도록 다른 방식으로 구별될 수 있다.
저주파 인코딩 유닛(320)은 예를 들어 ACELP 알고리즘을 사용하는 ACELP 인코더를 사용하여 인코딩을 수행할 수 있고, 이 경우에 획득된 저주파 인코딩 파라미터는 예를 들어, 대수 코드북, 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 및 피치 주기를 포함할 수 있으며, 다른 파라미터도 포함할 수 있다. 실제로, 저대역 신호는 조건에 따라 적절한 인코딩 기술을 사용함으로써 인코딩될 수 있으며; 인코딩 기술이 변경되면, 저주파 인코딩 파라미터의 조합도 변경될 수 있다. 획득된 저주파 인코딩 파라미터는, 저대역 신호를 복원하는 데 필요하고 저대역 신호를 복원하기 위해 디코더에 전달되는 파라미터이다.
계산 유닛(330)은 저주파 인코딩 파라미터에 따라, 인코딩된 신호의 고주파 특성을 나타내는 데 사용되는 파라미터, 즉 음성 정도 인자를 계산한다. 구체적으로, 계산 유닛(330)은 저주파 인코딩 유닛(320)을 사용함으로써 획득된 저주파 인코딩 파라미터에 따라 음성 정도 인자 voice_fac를 계산하며, 예를 들어, 전술한 식(1)에 따라 음성 정도 인자 voice_fac를 계산할 수 있다. 그런 다음, 음성 정도 인자는 합성 여기 신호를 획득하는 데 사용되며, 여기서 합성 여기 신호는 고대역 신호의 인코딩을 위해 고주파 인코딩 유닛(360)에 전달된다. 도 4는 본 발명의 실시예에 따른 오디오 신호 인코딩 장치에서의 예측 유닛(340) 및 합성 유닛(350)에 대한 개략적인 블록도이다.
예측 유닛(340)은 단지 도 4의 예측 컴포넌트(460)를 포함할 수 있거나, 도 4의 제2 변형 컴포넌트(450) 및 예측 컴포넌트(460) 모두를 포함할 수 있다.
고대역 신호의 특성을 더 우수하게 제공하기 위해, 일반적인 주기의 음성 신호가 확장된 후 생기는 기계음을 약하게 하기 위해, 예를 들어, 제2 변형 컴포넌트(450)는 전술한 식(2)에 따라 저주파 인코딩 파라미터에서의 피치 주기 T0를 사용함으로써 음성 정도 인자 voice_fac를 변형하고, 변형된 음성 정도 인자 voice_fac_A를 획득한다.
예를 들어, 예측 컴포넌트(460)는 전술한 식(3) 또는 식(4)에 따라 고대역 여기 신호 Ex를 계산하고, 즉 예측 컴포넌트(460)는 변형된 음성 정도 인자 voice_fac_A를 사용함으로써 저주파 인코딩 파라미터 및 랜덤 노이즈 내의 대수 코드북을 가중하여, 가중 결과를 획득하고, 가중 결과와 대수 코드북 이득의 적 및 적응 코드와 적응 코드북 이득의 적을 가산하여, 고대역 여기 신호 Ex를 획득한다. 예측 컴포넌트(460)는 또한 계산 유닛(330)을 사용함으로써 계산된 음성 정도 인자 voice_fac를 사용하여 저주파 코딩 파라미터와 랜덤 노이즈에서의 대수 코드북을 가중하여, 가중 결과를 획득할 수 있고, 이 경우, 제2 변형 컴포넌트(450)는 생략될 수 있다. 예측 컴포넌트(460)는 또한 다른 방식으로 고대역 여기 신호 Ex를 계산할 수도 있다. 일례로, 합성 유닛(350)은 도 4에서의 프리엠파시스(410), 가중 컴포넌트(420), 및 디엠파시스(430)를 포함할 수 있고, 도 4에서의 제1 변형 컴포넌트(440) 및 가중 컴포넌트(420)를 포함할 수 있거나, 도 4에서의 프리엠파시스 컴포넌트(410), 가중 컴포넌트(420), 디엠파시스 컴포넌트(430), 및 제1 변형 컴포넌트(440)를 더 포함할 수 있다.
예를 들어, 식(6)을 사용함으로써, 프리엠파시스(410)는, 프리엠파시스 인자 α를 사용함으로써 랜덤 노이즈에 대해, 랜덤 노이즈의 고주파 부분을 강화하는 프리엠파시스 동작을 수행하여, 프리엠파시스 노이즈 PEnoise를 획득한다. 랜덤 노이즈는 예측 컴포넌트(460)에 입력되는 랜덤 노이즈와 같을 수 있다. 프리엠파시스 인자 α는 조건에 따라 음성 사운드의 노이즈 신호 특성을 정확하게 나타내기 위해 사전설정될 수 있으며, 즉 노이즈의 고주파 부분은 강한 신호를 가지고 노이즈의 주파수 부분은 약한 신호를 가진다. 다른 유형의 노이즈가 사용될 때, 일반적인 음성 사운드의 노이즈 특성을 나타내기 위해, 프리엠파시스 인자 α는 그에 대응해서 변해야 한다.
가중 컴포넌트(420)는 변형된 음성 정도 인자 voice_fac_A1을 사용함으로써 가중 컴포넌트(460)로부터의 고대역 여기 신호 Ex 및 가중하고 프리엠파시스 컴포넌트(410)로부터의 프리엠파시스 노이즈 PEnoise를 가중하여, 프리엠파시스 여기 신호 PEEx를 생성하도록 구성되어 있다. 일례로, 가중 컴포넌트(420)는 전술한 식(5)에 따라 프리엠파시스 여기 신호 PEEx를 획득할 수 있고(변형된 음성 정도 인자 voice_fac_A1는 음성 정도 인자 voice_fac을 대체하는 데 사용된다), 다른 방식으로 프리엠파시스 여기 신호를 계산할 수도 있다. 변형된 음성 정도 인자 voice_fac_A1는 제1 변형 컴포넌트(440)를 사용함으로써 생성되며, 여기서 제1 변형 컴포넌트(440)는 피치 주기를 사용함으로써 음성 정도 인자를 변형하여, 변형된 음성 정도 인자 voice_fac_A1을 획득한다. 제1 변형 컴포넌트(440)에 의해 수행되는 변형 동작은 제2 변형 컴포넌트(450)에 의해 수행되는 변형 동작과 같을 수 있으며, 제2 변형 컴포넌트(450)의 변형 동작과 다를 수도 있다. 즉, 제1 변형 컴포넌트(440)는 전술한 식(2) 외에 다른 식을 사용함으로써 피치 주기에 기초하여 음성 정도 인자 voice_fac를 변형할 수 있다.
예를 들어, 식(7)을 사용함으로써, 디엠파시스(430)는 디엠파시스 인자 β를 사용함으로써 가중 컴포넌트(420)로부터의 프리엠파시스 여기 신호 PEEx에 대해, 프리엠파시스 여기 신호 PEEx의 고주파 부분을 낮추는 디엠파시스 연산을 수행하여, 합성 여기 신호 SEx를 획득한다. 디엠파시스 인자 β는 프리엠파시스 인자 α 및 프리엠파시스 여기 신호 내의 프리엠파시스 노이즈의 비율에 기초하여 결정될 수 있다. 일례로, 디엠파시스 인자 β는 전술한 식(8) 또는 식(9)에 따라 결정될 수 있다.
전술한 바와 같이, 변형된 음성 정도 인자 voice_fac_A1 또는 voice_fac_A2를 대체하기 위해, 계산 유닛(330)에 의해 출력되는 음성 정도 인자 voice_fac는 가중 컴포넌트(420) 또는 예측 컴포넌트(460) 또는 양자에 제공될 수 있다. 또한, 프리엠파시스 컴포넌트(410) 및 디엠파시스 컴포넌트(430)는 또한 생략될 수도 있으며, 가중 컴포넌트(420)는 변형된 음성 정도 인자(또는 음성 정도 인자 voice_fac)를 사용함으로써 고대역 여기 신호 Ex 및 랜덤 노이즈를 가중하여, 합성 여기 신호를 획득한다.
예측 유닛(340) 또는 합성 유닛(350)에 대한 설명에 대해서는, 도 1을 참조하여 130 및 140에서의 전술한 설명을 참조하면 된다.
고주파 인코딩 유닛(360)은 분할 유닛(310)으로부터의 합성 여기 신호 SEx 및 고대역 신호에 기초하여 고주파 인코딩 파라미터를 획득한다. 일례로, 고주파 인코딩 유닛(360)은 고대역 신호에 대해 LPC 분석을 수행함으로써 고주파 LPC 계수를 획득하고; 고대역 여기 신호가 LPC 계수에 따라 결정된 합성 필터를 사용함으로써 필터링된 후 예측된 고대역 신호를 획득하며; 예측된 고대역 신호와 분할 유닛(310)으로부터의 고대역 신호를 비교함으로써 고주파 이득 파라미터를 획득하며, 여기서 고주파 이득 파라미터 및 LPC 계수는 고주파 인코딩 파라미터의 컴포넌트이다. 또한, 고주파 인코딩 유닛(360)은 또한 다양한 종래의 기술 또는 미래의 기술을 사용하여 고주파 인코딩 파라미터를 획득하며, 합성 여기 신호 및 고대역 신호에 기초하여 고주파 인코딩 파라미터를 획득하는 특정한 방식은 본 발명을 제한하지 않는다. 저주파 인코딩 파라미터 및 고주파 인코딩 파라미터가 획득된 후, 신호의 인코딩이 수행되며, 이에 따라 신호는 복원을 위해 디코더 측에 전달될 수 있다.
선택적으로, 오디오 신호 인코딩 장치(300)는: 저주파 인코딩 파라미터 및 고주파 인코딩 파라미터에 따라 코딩된 비트스트림을 생성하여, 코딩된 비트스트림을 디코더 측에 송신하도록 구성되어 있는 비트스트림 생성 유닛(370)을 더 포함할 수 있다.
도 3에 도시된 오디오 신호 인코딩 장치의 각각의 유닛에 의해 수행되는 동작에 대해서는, 도 1의 오디오 신호 인코딩 방법을 참조하는 설명을 참조하면 된다.
본 발명의 본 실시예에서의 전술한 오디오 신호 인코딩 장치에서, 합성 유닛(350)은 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여, 합성 여기 신호를 획득하며, 고대역 신호의 특성은 음성 신호에 기초하여 더 정확하게 제공될 수 있으며, 이에 의해 인코딩 효과가 향상된다.
도 5는 본 발명의 실시예에 따른 오디오 신호 디코딩 장치에 대한 개략적인 블록도이다. 오디오 신호 디코딩 장치(500)는: 인코딩된 정보 내의 저주파 인코딩 파라미터와 고주파 인코딩 파라미터를 구별하도록 구성되어 있는 구별 유닛(510); 상기 저주파 인코딩 파라미터를 디코딩하여 저대역 신호를 획득하도록 구성되어 있는 저주파 디코딩 유닛(520); 상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하도록 구성되어 있는 계산 유닛(530) - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용됨 - ; 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하도록 구성되어 있는 예측 유닛(540); 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하도록 구성되어 있는 합성 유닛(550); 상기 합성 여기 신호 및 상기 고주파 인코딩 파라미터에 기초하여 고대역 신호를 획득하도록 구성되어 있는 고주파 디코딩 유닛(560); 및 상기 저대역 신호 및 상기 고대역 신호를 결합하여 최종 디코딩된 신호를 획득하도록 구성되어 있는 결합 유닛(570)을 포함한다.
인코딩 신호를 수신한 후, 구별 유닛(510)은 인코딩된 신호 내의 저주파 인코딩 파라미터를 저주파 디코딩 유닛(520)에 제공하고, 인코딩된 신호 내의 고주파 인코딩 파라미터를 고주파 디코딩 유닛(560)에 제공한다. 저주파 인코딩 파라미터 및 고주파 인코딩 파라미터는 인코더 측으로부터 전달되고 저대역 신호 및 고대역 신호를 복원하는 데 사용되는 파라미터이다. 저주파 인코딩 파라미터는 예를 들어 대수 코드북, 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 피치 주기, 및 다른 파라미터를 포함할 수 있으며, 고주파 인코딩 파라미터는 예를 들어 LPC 계수, 고주파 이득 파라미터, 및 다른 파라미터를 포함할 수 있다.
저주파 디코딩 유닛(520)은 저주파 인코딩 파라미터를 디코딩하여 저대역 신호를 획득한다. 특정한 코딩 모드는 인코더 측의 인코딩 방식에 대응한다. 또한, 저주파 디코딩 유닛(520)은 대수 코드북, 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 또는 피치 주기와 같은 저주파 인코딩 파라미터를 계산 유닛(530) 및 예측 유닛(540)에 추가로 제공하며, 여기서 계산 유닛(530) 및 예측 유닛(540)은 또한, 구변 유닛(510)으로부터 획득된 저주파 인코딩 파라미터를 직접 획득할 수도 있다.
계산 유닛(530)은 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하도록 구성되어 있으며, 여기서 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용된다. 구체적으로, 계산 유닛(530)은 저주파 디코딩 유닛(520)을 사용함으로써 획득된 저주파 인코딩 파라미터에 따라 음성 정도 인자 voice_fac를 계산할 수 있으며, 예를 들어, 계산 유닛(530)은 전술한 식(1)에 따라 음성 정도 인자 voice_fac를 계산할 수 있다. 그런 다음, 음성 정도 인자는 합성 여기 신호를 획득하는 데 사용되며, 합성 여기 신호는 고주파 디코딩 유닛(560)에 전달되어 고대역 신호를 획득한다.
예측 유닛(540) 및 합성 유닛(550)은 도 3의 오디오 신호 인코딩 장치에서의 예측 유닛(340) 및 합성 유닛(350)과 각각 동일하다. 그러므로 예측 유닛(540) 및 합성 유닛(550)에 대해서는, 도 4를 참조하면 된다. 예를 들어, 하나의 실시에서, 예측 유닛(540)은 제2 변형 컴포넌트(450) 및 예측 컴포넌트(460) 모두를 포함하며, 다른 실시에서, 예측 유닛(540)은 단지 예측 컴포넌트(450)를 포함한다. 합성 유닛(550)에 있어서, 하나의 실시에서, 합성 유닛(550)은 프리엠파시스 컴포넌트(410), 가중 컴포넌트(420), 및 디엠파시스 컴포넌트(430)를 포함하며, 다른 실시에서, 합성 유닛(550)은 제1 변형 컴포넌트(440) 및 가중 컴포넌트(420)를 포함하며, 또 다른 실시에서, 합성 유닛(550)은 프리엠파시스 컴포넌트(4100, 가중 컴포넌트(420), 디엠파시스 컴포넌트(430), 및 제1 변형 컴포넌트(440)를 포함한다.
고주파 디코딩 유닛(560)은 합성 여기 신호 및 고주파 인코딩 파라미터에 기초하여 고대역 신호를 획득한다. 고주파 디코딩 유닛(560)은 오디오 신호 인코딩 장치(300) 내의 고주파 인코딩 유닛의 인코딩 기술에 대응하는 디코딩 기술을 사용함으로써 디코딩을 수행한다. 일례로, 고주파 디코딩 유닛(560)은 고주파 인코딩 파라미터 내의 LPC 계수를 사용함으로써 합성 필터를 생성하고, 합성 유닛(550)으로부터의 합성 여기 신호가 합성 필터를 사용함으로써 필터링된 후 예측된 고대역 신호를 복원하며; 예측된 고대역 신호가 고주파 인코딩 파라미터 내의 고주파 이득 파라미터를 사용함으로써 조정된 후 최종 고대역 신호를 획득한다. 또한, 고주파 디코딩 유닛(560)은 다양한 종래의 기술 또는 미래의 기술에 의해 실시될 수도 있으며, 특정한 디코딩 기술은 본 발명에 제한되지 않는다.
결합 유닛(570)은 저대역 신호와 고대역 신호를 결합하여 최종 디코딩 신호를 획득한다. 결합 유닛(570)의 결합 방식은 디코딩이 최종 출력 신호를 출력하도록 분할 유닛(310)이 도 3에서의 분할 동작을 수행하는 분할 방식과 동일하다.
본 발명의 본 실시예에서의 전술한 오디오 신호 디코딩 장치에서, 고대역 여기 신호 및 랜덤 노이즈는 음성 정도 인자를 사용함으로써 가중되어, 합성 여기 신호를 획득하며, 고대역 신호의 특성은 음성 신호에 기초하여 더 정확하게 제공될 수 있으며, 이에 의해 디코딩 효과가 향상된다.
도 6은 본 발명의 실시예에 따른 전송기(600)에 대한 개략적인 블록도이다. 도 6에서의 전송기(600)는 도 3에 도시된 오디오 신호 인코딩 장치(300)를 포함할 수 있으며, 그러므로 설명을 반복하지 않고 적절하게 생략한다. 또한, 전송기(600)는 오디오 신호 장치(300)에 의해 생성되는 고주파 인코딩 파라미터 및 저주파 인코딩 파라미터에 대한 비트 할당을 수행하여 비트스트림을 생성하고 비트스트림을 전송하도록 구성되어 있는 전송 유닛(610)을 더 포함할 수 있다.
도 7은 본 발명의 실시예에 따른 수신기(700)에 대한 개략적인 블록도이다. 도 7에서의 수신기(700)는 도 5에 도시된 오디오 신호 디코딩 장치(500)를 포함할 수 있고, 그러므로 설명을 반복하지 않고 적절하게 생략한다. 또한, 수신기(700)는 인코딩된 신호를 수신하여, 처리를 위해 오디오 신호 디코딩 장치(500)에 인코딩된 신호를 제공하도록 구성되어 있는 수신 유닛(710)을 더 포함할 수 있다.
본 발명의 다른 실시예에서, 통신 시스템이 더 제공되며, 통신 시스템은 도 6을 참조하여 설명된 전송기(600) 또는 도 7을 참조하여 설명된 수신기(700)를 포함할 수 있다. 도 8은 본 발명의 다른 실시예에 따른 장치에 대한 개략적인 블록도이다. 도 8에서의 장치(800)는 전술한 방법 실시예에서의 단계 및 방법을 실행하도록 구성될 수 있다. 장치(800)는 다양한 통신 시스템에서 기지국 또는 단말에 적용될 수 있다. 도 8의 실시예에서, 장치(800)는 전송 회로(802), 수신 회로(803), 인코딩 프로세서(804), 디코딩 프로세서(805), 프로세싱 유닛(806), 메모리(807), 및 안테나(801)를 포함한다. 프로세싱 유닛(806)은 장치(800)의 동작을 제어하며, 프로세싱 유닛(806)은 중앙처리장치(Central Processing Unit: CPU)라고도 할 수 있다. 메모리(807)는 리드-온리 메모리 및 랜덤 액세스 메모리를 포함할 수 있으며, 프로세싱 유닛(806)에 명령 및 데이터를 제공한다. 메모리(807)의 일부는 비휘발성 랜덤 액세스 메모리(NVRAM)를 더 포함할 수 있다. 특정한 애플리케이션에서, 장치(800)는 내장될 수 있거나 장치(800) 자체가 이동전화와 같은 무선 통신 기기일 수 있으며, 장치(800)는 전송 회로(802) 및 수신 회로(803)를 수용하는 캐리어를 더 포함할 수 있으며, 이에 따라 장치(800)와 원격 위치 간의 데이터 송수신을 가능하게 한다. 전송 회로(802) 및 수신 회로(803)는 안테나에 결합될 수 있다. 안테나(800)의 구성요소들은 버스 시스템(809)을 사용함으로써 함께 결합되며, 데이터 버스 외에, 버스 시스템(809)은 전원 버스, 제어 버스, 및 상태 신호 버스를 포함한다. 그렇지만, 설명을 간략화를 위해, 다양한 버스들은 버스 시스템(809)으로 도면에 표시되어 있다. 장치(800)는 신호를 처리하기 위한 프로세싱 유닛(806)을 더 포함할 수 있으며, 또한, 장치(800)는 인코딩 프로세서(804) 및 디코딩 프로세서(805)를 더 포함한다. 본 발명의 전술한 실시예에서 설명된 오디오 신호 인코딩 방법은 인코딩 프로세서(804)에 적용될 수 있거나 인코딩 프로세서(804)에 의해 실시될 수 있으며, 본 발명의 전술한 실시예에서 설명된 오디오 신호 디코딩 방법은 디코딩 프로세서(805)에 적용될 수 있거나 디코딩 프로세서(805)에 의해 실시될 수 있다. 인코딩 프로세서(804) 또는 디코딩 프로세서(805)는 집적회로 칩일 수 있으며 신호 처리 능력을 가진다. 실시 프로세스에서, 전술한 방법의 단계는 인코딩 프로세서(804) 또는 디코딩 프로세서(805) 내의 하드웨어의 집적논리회로에 의해 또는 소프트웨어 형태의 명령에 의해 완료될 수 있다. 이러한 명령들은 프로세서(806)와의 협력에 의해 실행되고 제어될 수 있다. 본 발명의 실시예에서 설명된 방법을 실행하도록 구성된 전술한 디코딩 프로세서는 범용 프로세서, 디지털 신호 프로세서(DSP), 주문형 집적회로(ASIC), 필드 프로그래머블 게이트 어레이(FPGA) 또는 다른 프로그래머블 로직 컴포넌트, 이산 게이트 또는 트랜지스터 로직 컴포넌트, 또는 이산 하드웨어 어셈블리일 수 있다. 디코딩 프로세서는 본 발명의 실시예에서 설명된 방법, 단계, 및 논리적 블록도를 실행 또는 실시할 수 있다. 범용 프로세서는 마이크로프로세서일 수 있거나 프로세서는 또한 임의의 종래의 프로세서, 트랜지스터 등일 수 있다. 본 발명의 실시예를 참조하여 설명된 방법의 단계는 하드웨어 디코딩 프로세서에 의해 직접 실시되고 완료될 수 있거나, 디코딩 프로세서 내의 하드웨어 모듈과 소프트웨어 모듈의 결합을 사용하여 실시되고 완료될 수 있다. 소프트웨어 모듈은 랜덤 액세스 메모리, 플래시 메모리, 리드-온리 메모리, 프로그래머블 리드-온리 메모리, 전기적으로 소거 가능한 프로그래머블 메모리, 또는 레지스터와 같이, 당기술분야의 일반적인 저장 매체에 위치할 수 있다. 저장 매체는 메모리(807)에 위치하며, 인코딩 프로세서(804) 또는 디코딩 프로세서(805)는 메모리로부터 정보를 읽어내고, 인코딩 프로세서(804) 또는 디코딩 프로세서(805)의 하드웨어와 결합하여 전술한 방법의 단계를 완료한다. 예를 들어, 메모리(807)는 획득된 저주파 인코딩 파라미터를 저장하여 두었다가, 인코딩 프로세서(804) 또는 디코딩 프로세서가 인코딩 또는 디코딩 동안 사용하도록 저주파 인코딩 파라미터를 제공할 수 있다.
예를 들어, 도 3에서의 오디오 신호 인코딩 장치(300)는 인코딩 프로세서(804)에 의해 실시될 수 있으며, 도 5에서의 오디오 신호 디코딩 장치(500)는 디코딩 프로세서(805)에 의해 실시될 수 있다. 또한, 도 4에서의 예측 유닛 및 합성 유닛은 프로세서(806)에 의해 실시될 수 있으며, 인코딩 프로세서(804) 또는 디코딩 프로세서(805)에 의해 실시될 수도 있다.
또한, 예를 들어, 도 6에서의 전송기(610)는 인코딩 프로세서(804), 전송 회로(802), 안테나(801) 등에 의해 실현될 수 있다. 도 7에서의 수신기(710)는 안테나(801), 수신 회로(803), 디코딩 프로세서(805) 등에 의해 실현될 수 있다. 그렇지만, 전술한 예들은 단지 예에 불과하며, 이러한 특정한 실시 형태에 본 발명의 실시예를 제한하려는 것이 아니다.
구체적으로, 메모리(807)는 프로세서(806) 및/또는 인코딩 프로세서(804)가 이하의 동작: 인코딩될 시간 도메인 신호를 저대역 신호 및 고대역 신호로 분할하는 단계; 상기 저대역 신호를 인코딩하여 저주파 인코딩 파라미터를 획득하는 단계; 상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하고, 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호(high band excitation signal)를 예측하는 단계 - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성(voiced characteristic)의 정도를 나타내는 데 사용됨 - ; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계; 및 상기 합성 여기 신호 및 상기 고대역 신호에 기초하여 고주파 인코딩 파라미터를 획득하는 단계를 실행할 수 있게 하는 명령을 저장한다. 메모리(707)는 프로세서(806) 및/또는 디코딩 프로세서(805)가 이하의 동작: 인코딩된 정보 내의 저주파 인코딩 파라미터와 고주파 인코딩 파라미터를 구별하는 단계; 상기 저주파 인코딩 파라미터를 디코딩하여 저대역 신호를 획득하는 단계; 상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하고, 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하는 단계 - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용됨 - ; 상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계; 상기 합성 여기 신호 및 상기 고주파 인코딩 파라미터에 기초하여 고대역 신호를 획득하는 단계; 및 상기 저대역 신호 및 상기 고대역 신호를 결합하여 최종 디코딩된 신호를 획득하는 단계를 실행할 수 있게 하는 명령을 저장한다.
본 발명의 실시예에 따른 통신 시스템 또는 통신 장치는 전술한 오디오 신호 인코딩 장치(300), 전송기(610), 오디오 신호 디코딩 장치(500), 수신기(710) 등의 일부 또는 전부를 포함할 수 있다.
당업자라면 본 명세서에 개시된 실시예에 설명된 예와 조합해서, 유닛 및 알고리즘 단계들은 전자식 하드웨어 또는 컴퓨터 소프트웨어와 전자식 하드웨어의 조합으로 실현될 수 있다는 것을 인지할 수 있을 것이다. 기능들이 하드웨어로 수행되는지 소프트웨어로 수행되는지는 특별한 애플리케이션 및 기술적 솔루션의 설계 제약 조건에 따라 다르다. 당업자라면 다른 방법을 사용하여 각각의 특별한 실시예에 대해 설명된 기능을 실행할 수 있을 것이나, 그 실행이 본 발명의 범위를 넘어서는 것으로 파악되어서는 안 된다.
당업자라면 설명의 편의 및 간략화를 위해, 전술한 시스템, 장치, 및 유닛에 대한 상세한 작업 프로세스는 전술한 방법 실시예의 대응하는 프로세스를 참조하면 된다는 것을 자명하게 이해할 수 있을 것이므로 그 상세한 설명은 여기서 다시 설명하지 않는다.
본 출원에서 제공하는 수 개의 실시예에서, 전술한 시스템, 장치, 및 방법은 다른 방식으로도 실현될 수 있다는 것은 물론이다. 예를 들어, 설명된 장치 실시예는 단지 예시에 불과하다. 예를 들어, 유닛의 분할은 단지 일종의 논리적 기능 분할일 뿐이며, 실제의 실행 동안 다른 분할 방식으로 있을 수 있다. 예를 들어, 복수의 유닛 또는 구성요소를 다른 시스템에 결합 또는 통합할 수 있거나, 또는 일부의 특징은 무시하거나 수행하지 않을 수도 있다.
별도의 부분으로 설명된 유닛들은 물리적으로 별개일 수 있고 아닐 수도 있으며, 유닛으로 도시된 부분은 물리적 유닛일 수도 있고 아닐 수도 있으며, 한 위치에 위치할 수도 있고, 복수의 네트워크 유닛에 분산될 수도 있다. 유닛 중 일부 또는 전부는 실제의 필요에 따라 선택되어 실시예의 솔루션의 목적을 달성할 수 있다.
통합 유닛이 소프트웨어 기능 유닛의 형태로 실현되어 독립 제품으로 시판되거나 사용되면, 이 통합 유닛은 컴퓨터 판독 가능형 저장 매체에 저장될 수 있다. 이러한 이해를 바탕으로, 본 발명의 필수적 기술적 솔루션 또는, 또는 종래기술에 기여하는 부분, 또는 기술적 솔루션의 일부는 소프트웨어 제품의 형태로 실현될 수 있다. 컴퓨터 소프트웨어 제품은 저장 매체에 저장되고, 본 발명의 실시예에 설명된 방법의 단계 중 일부 또는 전부를 수행하도록 컴퓨터 장치(이것은 퍼스널 컴퓨터, 서버, 또는 네트워크 장치 등이 될 수 있다)에 명령하는 수개의 명령어를 포함한다. 전술한 저장 매체는: 프로그램 코드를 저장할 수 있는 임의의 저장 매체, 예를 들어, USB 플래시 디스크, 휴대형 하드디스크, 리드-온리 메모리(ROM), 랜덤 액세스 메모리(RAM), 자기디스크 또는 광디스크를 포함한다.
전술한 설명은 단지 본 발명의 특정한 실행 방식에 불과하며, 본 발명의 보호 범위를 제한하려는 것이 아니다. 본 발명에 설명된 기술적 범위 내에서 당업자가 용이하게 실현하는 모든 변형 또는 대체는 본 발명의 보호 범위 내에 있게 된다. 그러므로 본 발명의 보호 범위는 특허청구범위의 보호 범위에 있게 된다.

Claims (29)

  1. 오디오 신호 인코딩 방법으로서,
    인코딩될 시간 도메인 신호를 저대역 신호 및 고대역 신호로 분할하는 단계;
    상기 저대역 신호를 인코딩하여 저주파 인코딩 파라미터를 획득하는 단계;
    상기 저주파 인코딩 파라미터에 따라 음성 정도 인자(voiced degree factor)를 계산하고, 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호(high band excitation signal)를 예측하는 단계 - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성(voiced characteristic)의 정도를 나타내는 데 사용됨 - ;
    상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계; 및
    상기 합성 여기 신호 및 상기 고대역 신호에 기초하여 고주파 인코딩 파라미터를 획득하는 단계
    를 포함하는 오디오 신호 인코딩 방법.
  2. 제1항에 있어서,
    상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계는,
    프리엠파시스 인자(pre-emphasis factor)를 사용함으로써 상기 랜덤 노이즈에 대해, 상기 랜덤 노이즈의 고주파 부분을 강화하기 위한 프리엠파시스 연산을 수행하여 프리엠파시스 노이즈를 획득하는 단계;
    상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 프리엠파시스 노이즈를 가중하여 프리엠파시스 여기 신호를 생성하는 단계; 및
    디엠파시스 인자(de-emphasis factor)를 사용함으로써 상기 프리엠파시스 여기 신호에 대해, 상기 프리엠파시스 여기 신호의 고주파 부분을 낮추는 디엠파시스 연산(de-emphasis operation)을 수행하여 합성 여기 신호를 획득하는 단계
    를 포함하는, 오디오 신호 인코딩 방법.
  3. 제2항에 있어서,
    상기 디엠파시스 인자는 상기 프리엠파시스 인자 및 상기 프리엠파시스 여기 신호 내의 프리엠파시스 노이즈의 비율에 기초하여 결정되는, 오디오 신호 인코딩 방법.
  4. 제1항에 있어서,
    상기 저주파 인코딩 파라미터는 피치 주기(pitch period)를 포함하며,
    상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계는,
    상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하는 단계; 및
    변형된 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계
    를 포함하는, 오디오 신호 인코딩 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 저주파 인코딩 파라미터는 대수 코드북(algebraic codebook), 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 및 피치 주기를 포함하며,
    상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하는 단계는,
    상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하는 단계; 및
    변형된 음성 정도 인자를 사용함으로써 대수 코드북 및 랜덤 노이즈를 가중하여 가중 결과를 획득하며, 상기 가중 결과와 상기 대수 코드북 이득의 적(product) 및 상기 적응 코드북과 상기 적응 코드북 이득의 적을 가산하여 고대역 여기 신호를 예측하는 단계
    를 포함하는, 오디오 신호 인코딩 방법.
  6. 제4항 또는 제5항에 있어서,
    상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하는 단계는 다음의 공식에 따라 수행되며,
    Figure pct00019

    여기서 voice_fac는 음성 정도 인자이고, T0는 피치 주기이고, a1, a2, 및 b1 > 0, b1 ≥ 0이고, threshold_min 및 threshold_max는 각각 피치 주기의 사전설정된 최솟값 및 사전설정된 최댓값이며, voice_fac_A는 변형된 음성 정도 인자인, 오디오 신호 인코딩 방법.
  7. 제1항에 있어서,
    상기 저주파 인코딩 파라미터 및 상기 고주파 인코딩 파라미터에 따라 코딩된 비트스트림을 생성하여 코딩된 비트스트림을 디코더 측에 송신하는 단계
    를 더 포함하는 오디오 신호 인코딩 방법.
  8. 오디오 신호 디코딩 방법으로서,
    인코딩된 정보 내의 저주파 인코딩 파라미터와 고주파 인코딩 파라미터를 구별하는 단계;
    상기 저주파 인코딩 파라미터를 디코딩하여 저대역 신호를 획득하는 단계;
    상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하고, 상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하는 단계 - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용됨 - ;
    상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계;
    상기 합성 여기 신호 및 상기 고주파 인코딩 파라미터에 기초하여 고대역 신호를 획득하는 단계; 및
    상기 저대역 신호 및 상기 고대역 신호를 결합하여 최종 디코딩된 신호를 획득하는 단계
    를 포함하는 오디오 신호 디코딩 방법.
  9. 제8항에 있어서,
    상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계는,
    프리엠파시스 인자를 사용함으로써 상기 랜덤 노이즈에 대해, 상기 랜덤 노이즈의 고주파 부분을 강화하기 위한 프리엠파시스 연산을 수행하여 프리엠파시스 노이즈를 획득하는 단계;
    상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 프리엠파시스 노이즈를 가중하여 프리엠파시스 여기 신호를 생성하는 단계; 및
    디엠파시스 인자를 사용함으로써 상기 프리엠파시스 여기 신호에 대해, 상기 프리엠파시스 여기 신호의 고주파 부분을 낮추는 디엠파시스 연산을 수행하여 합성 여기 신호를 획득하는 단계
    를 포함하는, 오디오 신호 디코딩 방법.
  10. 제9항에 있어서,
    상기 디엠파시스 인자는 상기 프리엠파시스 인자 및 상기 프리엠파시스 여기 신호 내의 프리엠파시스 노이즈의 비율에 기초하여 결정되는, 오디오 신호 디코딩 방법.
  11. 제8항에 있어서,
    상기 저주파 인코딩 파라미터는 피치 주기를 포함하며,
    상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계는,
    상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하는 단계; 및
    변형된 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하는 단계
    를 포함하는, 오디오 신호 디코딩 방법.
  12. 제8항 내지 제10항 중 어느 한 항에 있어서,
    상기 저주파 인코딩 파라미터는 대수 코드북, 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 및 피치 주기를 포함하며,
    상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하는 단계는,
    상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하는 단계; 및
    변형된 음성 정도 인자를 사용함으로써 대수 코드북 및 랜덤 노이즈를 가중하여 가중 결과를 획득하며, 상기 가중 결과와 상기 대수 코드북 이득의 적 및 상기 적응 코드북과 상기 적응 코드북 이득의 적을 가산하여 고대역 여기 신호를 예측하는 단계
    를 포함하는, 오디오 신호 디코딩 방법.
  13. 제11항 또는 제12항에 있어서,
    상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하는 단계는 다음의 공식에 따라 수행되며,
    Figure pct00020

    여기서 voice_fac는 음성 정도 인자이고, T0는 피치 주기이고, a1, a2, 및 b1 > 0, b1 ≥ 0이고, threshold_min 및 threshold_max는 각각 피치 주기의 사전설정된 최솟값 및 사전설정된 최댓값이며, voice_fac_A는 변형된 음성 정도 인자인, 오디오 신호 디코딩 방법.
  14. 오디오 신호 인코딩 장치로서,
    인코딩될 시간 도메인 신호를 저대역 신호 및 고대역 신호로 분할하도록 구성되어 있는 분할 유닛;
    상기 저대역 신호를 인코딩하여 저주파 인코딩 파라미터를 획득하도록 구성되어 있는 저주파 인코딩 유닛;
    상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하도록 구성되어 있는 계산 유닛 - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용됨 - ;
    상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하도록 구성되어 있는 예측 유닛;
    상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하도록 구성되어 있는 합성 유닛; 및
    상기 합성 여기 신호 및 상기 고대역 신호에 기초하여 고주파 인코딩 파라미터를 획득하도록 구성되어 있는 고주파 인코딩 유닛
    을 포함하는 오디오 신호 인코딩 장치.
  15. 제14항에 있어서,
    상기 합성 유닛은,
    프리엠파시스 인자를 사용함으로써 상기 랜덤 노이즈에 대해, 상기 랜덤 노이즈의 고주파 부분을 강화하기 위한 프리엠파시스 연산을 수행하여 프리엠파시스 노이즈를 획득하도록 구성되어 있는 프리엠파시스 컴포넌트;
    상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 프리엠파시스 노이즈를 가중하여 프리엠파시스 여기 신호를 생성하도록 구성되어 있는 가중 컴포넌트; 및
    디엠파시스 인자를 사용함으로써 상기 프리엠파시스 여기 신호에 대해, 상기 프리엠파시스 여기 신호의 고주파 부분을 낮추는 디엠파시스 연산을 수행하여 합성 여기 신호를 획득하도록 구성되어 있는 디엠파시스 컴포넌트
    를 포함하는, 오디오 신호 인코딩 장치.
  16. 제15항에 있어서,
    상기 디엠파시스 인자는 상기 프리엠파시스 인자 및 상기 프리엠파시스 여기 신호 내의 프리엠파시스 노이즈의 비율에 기초하여 결정되는, 오디오 신호 인코딩 장치.
  17. 제14항에 있어서,
    상기 저주파 인코딩 파라미터는 피치 주기(pitch period)를 포함하며,
    상기 합성 유닛은,
    상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하도록 구성되어 있는 제1 변형 컴포넌트; 및
    변형된 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하도록 구성되어 있는 가중 컴포넌트
    를 포함하는, 오디오 신호 인코딩 장치.
  18. 제14항 내지 제16항 중 어느 한 항에 있어서,
    상기 저주파 인코딩 파라미터는 대수 코드북, 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 및 피치 주기를 포함하며,
    상기 예측 유닛은,
    상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하도록 구성되어 있는 제2 변형 컴포넌트; 및
    변형된 음성 정도 인자를 사용함으로써 대수 코드북 및 랜덤 노이즈를 가중하여 가중 결과를 획득하며, 상기 가중 결과와 상기 대수 코드북 이득의 적 및 상기 적응 코드북과 상기 적응 코드북 이득의 적을 가산하여 고대역 여기 신호를 예측하도록 구성되어 있는 예측 컴포넌트
    를 포함하는, 오디오 신호 인코딩 장치.
  19. 제17항 또는 제18항에 있어서,
    상기 제1 변형 컴포넌트와 상기 제2 변형 컴포넌트 중 적어도 하나는 다음의 공식에 따라 상기 음성 정도 인자를 변형하며,
    Figure pct00021

    여기서 voice_fac는 음성 정도 인자이고, T0는 피치 주기이고, a1, a2, 및 b1 > 0, b1 ≥ 0이고, threshold_min 및 threshold_max는 각각 피치 주기의 사전설정된 최솟값 및 사전설정된 최댓값이며, voice_fac_A는 변형된 음성 정도 인자인, 오디오 신호 인코딩 장치.
  20. 제14항에 있어서,
    상기 저주파 인코딩 파라미터 및 상기 고주파 인코딩 파라미터에 따라 코딩된 비트스트림을 생성하여 코딩된 비트스트림을 디코더 측에 송신하도록 구성되어 있는 비트스트림 생성 유닛
    을 더 포함하는 오디오 신호 인코딩 장치.
  21. 오디오 신호 디코딩 장치로서,
    인코딩된 정보 내의 저주파 인코딩 파라미터와 고주파 인코딩 파라미터를 구별하도록 구성되어 있는 구별 유닛;
    상기 저주파 인코딩 파라미터를 디코딩하여 저대역 신호를 획득하도록 구성되어 있는 저주파 디코딩 유닛;
    상기 저주파 인코딩 파라미터에 따라 음성 정도 인자를 계산하도록 구성되어 있는 계산 유닛 - 상기 음성 정도 인자는 고대역 신호에 의해 제공되는 음성 특성의 정도를 나타내는 데 사용됨 - ;
    상기 저주파 인코딩 파라미터에 따라 고대역 여기 신호를 예측하도록 구성되어 있는 예측 유닛;
    상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하도록 구성되어 있는 합성 유닛;
    상기 합성 여기 신호 및 상기 고주파 인코딩 파라미터에 기초하여 고대역 신호를 획득하도록 구성되어 있는 고주파 디코딩 유닛; 및
    상기 저대역 신호 및 상기 고대역 신호를 결합하여 최종 디코딩된 신호를 획득하도록 구성되어 있는 결합 유닛
    을 포함하는 오디오 신호 디코딩 장치.
  22. 제21항에 있어서,
    상기 합성 유닛은,
    프리엠파시스 인자를 사용함으로써 상기 랜덤 노이즈에 대해, 상기 랜덤 노이즈의 고주파 부분을 강화하기 위한 프리엠파시스 연산을 수행하여 프리엠파시스 노이즈를 획득하도록 구성되어 있는 프리엠파시스 컴포넌트;
    상기 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 프리엠파시스 노이즈를 가중하여 프리엠파시스 여기 신호를 생성하도록 구성되어 있는 가중 컴포넌트; 및
    디엠파시스 인자를 사용함으로써 상기 프리엠파시스 여기 신호에 대해, 상기 프리엠파시스 여기 신호의 고주파 부분을 낮추는 디엠파시스 연산을 수행하여 합성 여기 신호를 획득하도록 구성되어 있는 디엠파시스 컴포넌트
    를 포함하는, 오디오 신호 디코딩 장치.
  23. 제21항에 있어서,
    상기 디엠파시스 인자는 상기 프리엠파시스 인자 및 상기 프리엠파시스 여기 신호 내의 프리엠파시스 노이즈의 비율에 기초하여 결정되는, 오디오 신호 디코딩 장치.
  24. 제21항에 있어서,
    상기 저주파 인코딩 파라미터는 피치 주기를 포함하며,
    상기 합성 유닛은,
    상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하도록 구성되어 있는 제1 변형 컴포넌트; 및
    변형된 음성 정도 인자를 사용함으로써 고대역 여기 신호 및 랜덤 노이즈를 가중하여 합성 여기 신호를 획득하도록 구성되어 있는 가중 컴포넌트
    를 포함하는, 오디오 신호 디코딩 장치.
  25. 제24항 또는 제25항에 있어서,
    상기 저주파 인코딩 파라미터는 대수 코드북, 대수 코드북 이득, 적응 코드북, 적응 코드북 이득, 및 피치 주기를 포함하며,
    상기 예측 유닛은,
    상기 피치 주기를 사용함으로써 음성 정도 인자를 변형하도록 구성되어 있는 제2 변형 유닛; 및
    변형된 음성 정도 인자를 사용함으로써 대수 코드북 및 랜덤 노이즈를 가중하여 가중 결과를 획득하며, 상기 가중 결과와 상기 대수 코드북 이득의 적 및 상기 적응 코드북과 상기 적응 코드북 이득의 적을 가산하여 고대역 여기 신호를 예측하도록 구성되어 있는 예측 컴포넌트
    를 포함하는, 오디오 신호 디코딩 장치.
  26. 제24항 또는 제25항에 있어서,
    상기 제1 변형 컴포넌트와 상기 제2 변형 컴포넌트 중 적어도 하나는 다음의 공식에 따라 상기 음성 정도 인자를 변형하며,
    Figure pct00022

    여기서 voice_fac는 음성 정도 인자이고, T0는 피치 주기이고, a1, a2, 및 b1 > 0, b1 ≥ 0이고, threshold_min 및 threshold_max는 각각 피치 주기의 사전설정된 최솟값 및 사전설정된 최댓값이며, voice_fac_A는 변형된 음성 정도 인자인, 오디오 신호 디코딩 장치.
  27. 전송기로서,
    제14항에 따른 오디오 신호 인코딩 장치; 및
    상기 오디오 신호 인코딩 장치에 의해 생성되는 고주파 인코딩 파라미터 및 저주파 인코딩 파라미터에 대해 비트 할당을 수행하여 비트스트림을 생성하고 상기 비트스트림을 전송하도록 구성되어 있는 전송기 유닛
    을 포함하는 전송기.
  28. 수신기로서,
    비트스트림을 수신하고 상기 비트스트림으로부터 인코딩된 정보를 추출하도록 구성되어 있는 수신기 유닛; 및
    제21항에 따른 오디오 신호 디코딩 장치
    를 포함하는 수신기.
  29. 제27항에 따른 전송기 또는 제28항에 따른 수신기를 포함하는 통신 시스템.
KR1020157013439A 2013-01-11 2013-07-22 오디오 신호 인코딩/디코딩 방법 및 오디오 신호 인코딩/디코딩 장치 KR101736394B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310010936.8A CN103928029B (zh) 2013-01-11 2013-01-11 音频信号编码和解码方法、音频信号编码和解码装置
CN201310010936.8 2013-01-11
PCT/CN2013/079804 WO2014107950A1 (zh) 2013-01-11 2013-07-22 音频信号编码和解码方法、音频信号编码和解码装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020177012597A Division KR20170054580A (ko) 2013-01-11 2013-07-22 오디오 신호 인코딩/디코딩 방법 및 오디오 신호 인코딩/디코딩 장치

Publications (2)

Publication Number Publication Date
KR20150070398A true KR20150070398A (ko) 2015-06-24
KR101736394B1 KR101736394B1 (ko) 2017-05-16

Family

ID=51146227

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020177012597A KR20170054580A (ko) 2013-01-11 2013-07-22 오디오 신호 인코딩/디코딩 방법 및 오디오 신호 인코딩/디코딩 장치
KR1020157013439A KR101736394B1 (ko) 2013-01-11 2013-07-22 오디오 신호 인코딩/디코딩 방법 및 오디오 신호 인코딩/디코딩 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020177012597A KR20170054580A (ko) 2013-01-11 2013-07-22 오디오 신호 인코딩/디코딩 방법 및 오디오 신호 인코딩/디코딩 장치

Country Status (9)

Country Link
US (3) US9805736B2 (ko)
EP (2) EP3467826A1 (ko)
JP (2) JP6125031B2 (ko)
KR (2) KR20170054580A (ko)
CN (2) CN105976830B (ko)
BR (1) BR112015014956B1 (ko)
HK (1) HK1199539A1 (ko)
SG (1) SG11201503286UA (ko)
WO (1) WO2014107950A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010069885A1 (en) * 2008-12-15 2010-06-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and bandwidth extension decoder
CN103426441B (zh) 2012-05-18 2016-03-02 华为技术有限公司 检测基音周期的正确性的方法和装置
CN105976830B (zh) 2013-01-11 2019-09-20 华为技术有限公司 音频信号编码和解码方法、音频信号编码和解码装置
US9384746B2 (en) * 2013-10-14 2016-07-05 Qualcomm Incorporated Systems and methods of energy-scaled signal processing
WO2015079946A1 (ja) * 2013-11-29 2015-06-04 ソニー株式会社 周波数帯域拡大装置および方法、並びにプログラム
CN105225671B (zh) 2014-06-26 2016-10-26 华为技术有限公司 编解码方法、装置及系统
US9837089B2 (en) * 2015-06-18 2017-12-05 Qualcomm Incorporated High-band signal generation
US10847170B2 (en) 2015-06-18 2020-11-24 Qualcomm Incorporated Device and method for generating a high-band signal from non-linearly processed sub-ranges
CN106328153B (zh) * 2016-08-24 2020-05-08 青岛歌尔声学科技有限公司 电子通信设备语音信号处理系统、方法和电子通信设备
US10825467B2 (en) * 2017-04-21 2020-11-03 Qualcomm Incorporated Non-harmonic speech detection and bandwidth extension in a multi-source environment
JP7150996B2 (ja) * 2019-01-13 2022-10-11 華為技術有限公司 ハイレゾリューションオーディオ符号化
CN112767954A (zh) * 2020-06-24 2021-05-07 腾讯科技(深圳)有限公司 音频编解码方法、装置、介质及电子设备

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02230300A (ja) * 1989-03-03 1990-09-12 Nec Corp 音声合成器
US5455888A (en) * 1992-12-04 1995-10-03 Northern Telecom Limited Speech bandwidth extension method and apparatus
JPH0954600A (ja) * 1995-08-14 1997-02-25 Toshiba Corp 音声符号化通信装置
EP0870246B1 (en) 1995-09-25 2007-06-06 Adobe Systems Incorporated Optimum access to electronic documents
CA2252170A1 (en) * 1998-10-27 2000-04-27 Bruno Bessette A method and device for high quality coding of wideband speech and audio signals
US7260523B2 (en) * 1999-12-21 2007-08-21 Texas Instruments Incorporated Sub-band speech coding system
WO2002029782A1 (en) * 2000-10-02 2002-04-11 The Regents Of The University Of California Perceptual harmonic cepstral coefficients as the front-end for speech recognition
US6615169B1 (en) * 2000-10-18 2003-09-02 Nokia Corporation High frequency enhancement layer coding in wideband speech codec
US6691085B1 (en) 2000-10-18 2004-02-10 Nokia Mobile Phones Ltd. Method and system for estimating artificial high band signal in speech codec using voice activity information
EP1383113A1 (fr) * 2002-07-17 2004-01-21 STMicroelectronics N.V. Procédé et dispositif d'encodage de la parole à bande élargie capable de contrôler indépendamment les distorsions à court terme et à long terme
EP1383109A1 (fr) * 2002-07-17 2004-01-21 STMicroelectronics N.V. Procédé et dispositif d'encodage de la parole à bande élargie
KR100503415B1 (ko) * 2002-12-09 2005-07-22 한국전자통신연구원 대역폭 확장을 이용한 celp 방식 코덱간의 상호부호화 장치 및 그 방법
WO2004084182A1 (en) * 2003-03-15 2004-09-30 Mindspeed Technologies, Inc. Decomposition of voiced speech for celp speech coding
KR20070115637A (ko) * 2006-06-03 2007-12-06 삼성전자주식회사 대역폭 확장 부호화 및 복호화 방법 및 장치
US20070299655A1 (en) * 2006-06-22 2007-12-27 Nokia Corporation Method, Apparatus and Computer Program Product for Providing Low Frequency Expansion of Speech
FR2907586A1 (fr) * 2006-10-20 2008-04-25 France Telecom Synthese de blocs perdus d'un signal audionumerique,avec correction de periode de pitch.
RU2437170C2 (ru) * 2006-10-20 2011-12-20 Франс Телеком Ослабление чрезмерной тональности, в частности, для генерирования возбуждения в декодере при отсутствии информации
KR101565919B1 (ko) 2006-11-17 2015-11-05 삼성전자주식회사 고주파수 신호 부호화 및 복호화 방법 및 장치
JP5103880B2 (ja) * 2006-11-24 2012-12-19 富士通株式会社 復号化装置および復号化方法
KR101379263B1 (ko) 2007-01-12 2014-03-28 삼성전자주식회사 대역폭 확장 복호화 방법 및 장치
WO2008108082A1 (ja) * 2007-03-02 2008-09-12 Panasonic Corporation 音声復号装置および音声復号方法
CN101256771A (zh) * 2007-03-02 2008-09-03 北京工业大学 嵌入式编码、解码方法、编码器、解码器及系统
CN101414462A (zh) * 2007-10-15 2009-04-22 华为技术有限公司 音频编码方法和多点音频信号混音控制方法及相应设备
US9177569B2 (en) * 2007-10-30 2015-11-03 Samsung Electronics Co., Ltd. Apparatus, medium and method to encode and decode high frequency signal
KR101373004B1 (ko) * 2007-10-30 2014-03-26 삼성전자주식회사 고주파수 신호 부호화 및 복호화 장치 및 방법
WO2009081568A1 (ja) * 2007-12-21 2009-07-02 Panasonic Corporation 符号化装置、復号装置および符号化方法
US8433582B2 (en) * 2008-02-01 2013-04-30 Motorola Mobility Llc Method and apparatus for estimating high-band energy in a bandwidth extension system
US20090201983A1 (en) * 2008-02-07 2009-08-13 Motorola, Inc. Method and apparatus for estimating high-band energy in a bandwidth extension system
KR100998396B1 (ko) * 2008-03-20 2010-12-03 광주과학기술원 프레임 손실 은닉 방법, 프레임 손실 은닉 장치 및 음성송수신 장치
CN101572087B (zh) * 2008-04-30 2012-02-29 北京工业大学 嵌入式语音或音频信号编解码方法和装置
WO2010070770A1 (ja) 2008-12-19 2010-06-24 富士通株式会社 音声帯域拡張装置及び音声帯域拡張方法
US8463599B2 (en) * 2009-02-04 2013-06-11 Motorola Mobility Llc Bandwidth extension method and apparatus for a modified discrete cosine transform audio coder
US8718804B2 (en) * 2009-05-05 2014-05-06 Huawei Technologies Co., Ltd. System and method for correcting for lost data in a digital audio signal
CN101996640B (zh) * 2009-08-31 2012-04-04 华为技术有限公司 频带扩展方法及装置
RU2591011C2 (ru) * 2009-10-20 2016-07-10 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Кодер аудиосигнала, декодер аудиосигнала, способ кодирования или декодирования аудиосигнала с удалением алиасинга (наложения спектров)
US8484020B2 (en) * 2009-10-23 2013-07-09 Qualcomm Incorporated Determining an upperband signal from a narrowband signal
CN102800317B (zh) 2011-05-25 2014-09-17 华为技术有限公司 信号分类方法及设备、编解码方法及设备
PL2791937T3 (pl) * 2011-11-02 2016-11-30 Wytworzenie rozszerzenia pasma wysokiego sygnału dźwiękowego o poszerzonym paśmie
CN105976830B (zh) * 2013-01-11 2019-09-20 华为技术有限公司 音频信号编码和解码方法、音频信号编码和解码装置
US9728200B2 (en) * 2013-01-29 2017-08-08 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for adaptive formant sharpening in linear prediction coding
HRP20231248T1 (hr) * 2013-03-04 2024-02-02 Voiceage Evs Llc Uređaj i postupak za smanјenјe šuma kvantizacije u dekoderu vremenskog domena
FR3008533A1 (fr) * 2013-07-12 2015-01-16 Orange Facteur d'echelle optimise pour l'extension de bande de frequence dans un decodeur de signaux audiofrequences
CN104517610B (zh) * 2013-09-26 2018-03-06 华为技术有限公司 频带扩展的方法及装置
BR122022008597B1 (pt) * 2013-10-31 2023-01-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decodificador áudio e método para fornecer uma informação de áudio decodificada utilizando uma dissimulação de erro que modifica um sinal de excitação de domínio de tempo
US9697843B2 (en) * 2014-04-30 2017-07-04 Qualcomm Incorporated High band excitation signal generation

Also Published As

Publication number Publication date
CN103928029A (zh) 2014-07-16
EP2899721A1 (en) 2015-07-29
CN105976830A (zh) 2016-09-28
EP3467826A1 (en) 2019-04-10
US20190355378A1 (en) 2019-11-21
US20150235653A1 (en) 2015-08-20
US20180018989A1 (en) 2018-01-18
CN103928029B (zh) 2017-02-08
US10373629B2 (en) 2019-08-06
EP2899721B1 (en) 2018-09-12
HK1199539A1 (en) 2015-07-03
JP6364518B2 (ja) 2018-07-25
KR20170054580A (ko) 2017-05-17
BR112015014956B1 (pt) 2021-11-30
SG11201503286UA (en) 2015-06-29
EP2899721A4 (en) 2015-12-09
JP6125031B2 (ja) 2017-05-10
BR112015014956A8 (pt) 2019-10-15
KR101736394B1 (ko) 2017-05-16
JP2016505873A (ja) 2016-02-25
JP2017138616A (ja) 2017-08-10
BR112015014956A2 (pt) 2017-07-11
CN105976830B (zh) 2019-09-20
WO2014107950A1 (zh) 2014-07-17
US9805736B2 (en) 2017-10-31

Similar Documents

Publication Publication Date Title
KR101736394B1 (ko) 오디오 신호 인코딩/디코딩 방법 및 오디오 신호 인코딩/디코딩 장치
JP7177185B2 (ja) 信号分類方法および信号分類デバイス、ならびに符号化/復号化方法および符号化/復号化デバイス
CA2827000C (en) Apparatus and method for error concealment in low-delay unified speech and audio coding (usac)
JP6574820B2 (ja) 高周波帯域信号を予測するための方法、符号化デバイス、および復号デバイス
JP6616470B2 (ja) 符号化方法、復号化方法、符号化装置及び復号化装置
US20190057706A1 (en) Signal Encoding And Decoding Methods and Devices
US8825494B2 (en) Computation apparatus and method, quantization apparatus and method, audio encoding apparatus and method, and program
JP6517300B2 (ja) 信号処理方法及び装置
CN115171709A (zh) 语音编码、解码方法、装置、计算机设备和存储介质
US20120123788A1 (en) Coding method, decoding method, and device and program using the methods
KR101807683B1 (ko) 손실 프레임을 처리하는 방법, 및 디코더

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
X701 Decision to grant (after re-examination)
A107 Divisional application of patent
GRNT Written decision to grant