KR100847391B1 - 음성 통신용 컴포트 노이즈 생성 방법 - Google Patents

음성 통신용 컴포트 노이즈 생성 방법 Download PDF

Info

Publication number
KR100847391B1
KR100847391B1 KR1020067018858A KR20067018858A KR100847391B1 KR 100847391 B1 KR100847391 B1 KR 100847391B1 KR 1020067018858 A KR1020067018858 A KR 1020067018858A KR 20067018858 A KR20067018858 A KR 20067018858A KR 100847391 B1 KR100847391 B1 KR 100847391B1
Authority
KR
South Korea
Prior art keywords
random
excitation
frame
calculating
inactive speech
Prior art date
Application number
KR1020067018858A
Other languages
English (en)
Other versions
KR20060121990A (ko
Inventor
퍼마차나할리 람쿠마
샤시 호수르
Original Assignee
인텔 코오퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔 코오퍼레이션 filed Critical 인텔 코오퍼레이션
Publication of KR20060121990A publication Critical patent/KR20060121990A/ko
Application granted granted Critical
Publication of KR100847391B1 publication Critical patent/KR100847391B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding

Abstract

본 발명의 실시예는 컴포트 노이즈 생성 알고리즘의 계산적 복잡도를 감소시킴으로써 ITU-T G.729 부록 B의 컴포트 노이즈 생성 알고리즘의 개선을 이루었다. 계산적 복잡도는, 부록 B에 기술된 대로 각각의 비 활동 음성 프레임에 대해 새로운 랜덤 가우션 잡음 샘플들을 계산하는 것이 아니라, 각각의 비 활동 음성 프레임에 대해 랜덤 가우션 잡음을 사전 계산함으로써 감소된다.
컴포트 노이즈, 비 활동 음성 프레임, 랜덤 여기, 음성 통신

Description

음성 통신용 컴포트 노이즈 생성 방법{METHOD OF COMFORT NOISE GENERATION FOR SPEECH COMMUNICATION}
본 발명의 실시예들은 통신 애플리케이션들에서의 음성 압축에 관한 것인데, 더 특정하게는 인터넷 또는 멀티미디어 통신 동안 말해진 단어들 간의 묵음 구간(silent interval)들을 대체하는 컴포트 노이즈(comfort noise)를 생성하는 것에 관련된다.
대안적인 통신 모드의 급증에도 불구하고, 말로 하는 통신은 정보를 교환하는 데에 종종 양호한 방법이 된다. 특히, 전화 통신은 전 지구에 걸쳐서 양 당사자 간의 대화를 가능케 한다. 그러나, 현재의 디지털 및 인터넷 기술과 음성 통신 간의 교류에는 도전적인 문제점들이 있다.
그런 도전 중의 하나는 사용가능한 대역폭을 효율적으로 활용하는 것과 관련된다. 디지털 통신 시스템은 아날로그 음성 또는 오디오 신호들을 디지털 신호들로 변환하는 것을 반드시 요구한다. 그러면 디지털 신호들은 이들이 자신들의 목적지로 나아감에 따라 대역폭을 점유하게 된다. 대역폭을 최대화하고 이것을 효율적으로 활용하는 것이 인터넷 및 멀티미디어 통신에서 항상 있는 관심사이다.
또 다른 도전은 사용자가 친숙하고 편안하게 사용할 수 있는 통신 환경을 만 들어내는 것이다. 음성 및 노이즈 통신에서 벤치마킹해야할 것은 전화이다. 전화통신에서는, 음성 통신의 사운드, 억양(inflection), 뉘앙스, 및 그외의 특성이 풍부하다. 음성 통신에서 쓸 수 있는 추가의 특성들도 통신에 내용을 더해 주며, 인터넷 또는 밀티미디어 통신 애플리케이션들에서 보존되어야만 한다. 또한, 전화 통화 동안에 각각의 통화 참가자가 일반적으로 다른 쪽 단에서 일어나고 있는 것을 들을 수 있다는 점에서 이 연결은 항상 개방적이다. 유감스럽게도, 어떤 전달되는 음성도 없는데 침묵 상태 또는 배경 잡음을 전송하는 것은 대부분의 통신 애플리케이션들에 있어서 대역폭을 비효율적으로 사용하는 것이 된다.
국제 전기통신 연합 제안(International Telecommunication Union Recommendation) G.729 ("G.729")는 인터넷 및 멀티미디어 통신용의 고정 레이트 음성 코더(speech coder)를 기술하고 있다. 특히, 이 코더는 8kHz 내지 8kbps의 샘플 레이트로 음성 및 오디오 신호를 압축한다. 코딩 알고리즘은 CS-ACELP(Conjugate-Structure Algebraic-Code-Excited-Linear-Prediction)을 활용하고 CELP(Code-Excited Linear-Prediction)에 기초한 것이다. 이 코더는 초당 80 샘플에서 8000 샘플에 대응하는 10 밀리초 음성 프레임들로 동작한다. 각각의 전송된 프레임은 먼저 분석되어 선형 예측 필터 계수들, 적응적 및 고정 코드북(adaptive and fixed-codebook) 인덱스들 및 이득들과 같은 CELP 모델 파라미터들을 추출하게 된다. 파라미터들은 인코딩되고 전송된다. 디코더 측에서, 음성은 10차 선형 예측에 기초한 단기 합성 필터(short term synthesis filter)를 활용하여 재구축된다. 디코더는 적응적 코드북 접근법에 기초한 장기 합성 필터를 추가 로 활용한다. 재구축된 음성은 사후 필터링되어 음성 품질을 향상시키게 된다.
G.729 부록 B(부록 B)는 음성 활동 검출(VAD), 비연속 전송(DTX), 및 컴포트 노이즈 생성 (CNG) 알고리즘들을 규정한다. G.729와 결합하여, 부록 B는 G.729만으로 생성된 것보다 나은 청취 환경 및 대역폭 활용도를 제공하고자 시도한다. 요약해 말하면, 도1을 참조할 때, 부록 B에 의해 채택된 알고리즘 및 시스템은 VAD(104)로 음성 활동의 존재 또는 부존재를 검출한다. VAD(104)가 음성 활동을 검출할 때, 이는 활동 음성 인코더(103)를 트리거링하고, 통신 채널(105) 상에서 인코딩된 음성 통신을 전송하고, 활동 음성 디코더(108)를 활용하여 재구축된 음성(109)를 복구한다. VAD(104)가 음성 활동을 검출하지 않았을 때, 이는 비 활동 음성 인코더(102)를 트리거링하고, 통신 채널(105) 및 비 활동 음성 디코더(107)와 함께 재구축된 음성(109)를 전송하고 복구한다.
재구축된 음성(109)의 속성은 VAD(104)가 음성 활동을 검출했는지의 여부에 좌우된다. VAD(104)가 음성 활동을 검출했을 때, 재구축된 음성(109)은 통신 채널 (105) 상에서 전송되었던 인코딩되고 디코딩된 음성이다. VAD(104)가 음성 활동을 검출하지 않았을 때, 재구축된 음성(109)은 부록 B CNG 알고리즘에서의 컴포트 노이즈가 된다. 일반적으로 음성 통신의 50% 이상의 시간이 말해지는 단어들 간의 기간들에서 진행된다는 점을 고려할 때, 통신 환경과 간섭하지 않으면서 음성 비존재 기간들에 대한 대역폭 요구를 감소시키는 방법들이 요구된다.
도1은 ITU-T G.729 부록 B에 따른 인코더 및 디코더의 종래 기술의 블록도이 다.
도2는 ITU-T G.729 부록 B에 따른 종래 기술의 컴포트 노이즈 생성 흐름도이다.
도3은 본 발명의 실시예에 따른 컴포트 노이즈 생성 흐름도이다.
음성 통신에 관련된 컴포트 노이즈를 생성하는 방법의 실시예가 기술된다. 실시예들에 대한 설명이 도면들에 도해된 것을 참조하여 상세히 이루어질 것이다. 본 실시예들이 이런 도면들과 연계하여 설명되기는 하겠지만, 이들을 여기 개시된 도면들에만 제한하고자 하는 의도는 없다. 오히려, 첨부된 청구범위에 의해 정의된 대로의, 설명된 발명의 정신 및 범위 내에 드는 모든 대안 예들, 변형 예들, 및 균등물들을 포괄하고자 한다.
간단히 말하면, 본 발명의 실시예는 컴포트 노이즈 생성 알고리즘의 계산적 복잡도를 감소시킴으로써 G.729 부록 B의 컴포트 노이즈 생성 알고리즘을 개선한다. 계산적 복잡도는, 부록 B에 기술된 대로 각각의 비 활동 음성 프레임용으로 새로운 랜덤 가우션 잡음 샘플(random Gaussian noise sample)들을 계산하는 것이 아니라 각각의 비 활동 음성 프레임용으로 사전 계산된 랜덤 가우션 잡음 샘플들을 재사용함으로써, 감소된다.
도입된 대로, 인터넷 및 멀티미디어 음성 통신 애플리케이션들은, 대역폭 활용도의 최대화의 혜택을 입으면서 동시에 만족스러운 통신 환경을 보존하는 이익을 누리고 있다. ITU(International Telecommunication Union)은 ITU-T 제안 G.729에서 CS-ACELP를 사용한 8 kbit/s의 음성 코딩을 기술하고 있다. 부록 B는 제안 V.70에 맞추어진 터미널에 최적화된 G.729용의 묵음 압축 방식을 추가하고 있다. 본 발명의 실시예가 각각에 대해 어떤 개선을 이루었는지를 차례대로 논의할 것이다.
G.729 코더는 초당 80 샘플에서 8000 샘플에 대응하는 10 밀리초 음성 프레임들에 대해 동작한다. 각각의 전송된 프레임이 처음으로 분석되어 CELP 모델 파라미터들을 추출하게 된다. 이 파라미터들은 이하의 것을 포함한다: 선 스펙트럼 쌍(LSP), 적응적 코드북 지연, 피치 지연 패리티, 고정 코드북 인덱스, 고정 코드북 사인, 코드북 이득들(스테이지 1), 및 코드북 이득들(스테이지 2). 이 파라미터들은 음성 신호와 함께 인코딩되고, 통신 채널 상에서 전송된다.
디코더 측에서, 파라미터 인덱스들은 추출되고 디코딩되어 주어진 10 밀리초 음성 데이터 프레임에 대해 코더 파라미터들을 검색하게 된다. 각각의 5 밀리초 하위 프레임에 대해서, LSP 계수들은 선형 예측 필터 계수들을 결정한다. 자신들의 각각의 이득에 의해 스케일링된 적응적 코드북과 고정 코드북 벡터들의 합은 여기(exitation)를 결정한다. 음성 신호는 이후 LP 합성 필터를 통해서 여기를 필터링함으로써 재구축된다. 이 재구축된 음성 신호는 이후 그 품질을 향상시키는 여러가지의 사후 처리 단계를 겪는다.
부록 B를 인코딩 및 디코딩 처리에 통합하는 것은 추가의 알고리즘 단계들을 부가한다. 추가의 알고리즘들은 음성 활동 검출, 비연속 전송, 및 컴포트 노이즈 생성을 포함한다. 각각이 차례로 논의될 것이다.
VAD의 목적은 음성 활동이 들어오는 신호에 존재하는 지를 결정하는 것이다. 만일 VAD가 음성 활동을 검출한다면, 이 신호는 G.729 제안에 따라서 인코딩되고 전송되고, 디코딩된다. 만일 VAD가 음성 활동을 검출하지 않는다면, 만족스러운 청취 환경을 유지하면서 비 음성 신호의 대역폭 요구를 줄이기 위해 DTX 및 CNG 알고리즘이 인보크(invoke)된다.
특정하게는, VAD는 10 밀리초 프레임들에 대해 행해지고, 들어오는 신호로부터 네 개의 파라미터 - 즉, 전체 및 저역 대역 프레임 에너지, 선 스펙트럼 주파수(LSF) 세트 및 프레임 제로 크로싱 레이트- 를 추출한다. VAD가 음성 활동이 있는지의 여부를 즉각 결정하지는 않기 때문에(예로, 음성 및 비 음성 모드 간에 급속하게 스위칭하는 정도로 검출 작용이 민감한 것은 바람직하지 않을 것이다), 추출된 파라미터들의 장기 평균들을 확립하는 초기화 처리를 활용한다. VAD 알고리즘은 이후 차이 파라미터들의 세트를 계산하는데, 이 차이는 현재의 프레임 파라미터들과 파라미터들의 이동 평균들 간의 차이이다. 차이 파라미터들은 스펙트럼 왜곡(spectral distortion), 에너지 차이, 저 대역 에너지 차이 및 제로 크로싱 차이 이다.
VAD는 이후 이것이 네 개의 차이 파라미터들에 기초하여 음성 활동을 검출했는지에 대해 초기 판단을 내린다. 만일 VAD 판정 결과 이것이 활동 음성 신호를 검출하였다면, 이동 평균들은 갱신되지 않는다. 만일 VAD 판정 결과 활동 음성 신호를 검출하지 않았다면(예를 들어, 배경 잡음을 나타내는 비 활동 음성 신호), 이후 이동 평균들은, 배경 잡음의 파라미터들이 특정의 문턱값 기준을 충족시킨다면 갱신된다. 초기 VAD 판정은 더 평활화되어 음성 신호의 장기의 정상 속성(long-term stationary nature)을 반영하게 된다.
VAD는 조건이 만족됐을 때, 파라미터들의 이동 평균들과 차이 파라미터들을 갱신한다. VAD는 파라미터들의 이동 평균들을 갱신하기 위해 1차 자동 회귀(first order auto-regressive) 방식을 사용한다. 자동 회귀 방식의 계수들은, 활동 음성 신호의 개시 동안에 또는 VAD가 큰 잡음 또는 음성 신호 특성 변화를 검출했을 때에 사용된 계수들이 그런 것처럼, 각각의 파라미터에 대해 다르다.
의도한 결과는, VAD가 들어오는 신호가 활동 음성을 나타내는지의 여부에 대해 또는 이것이 더 낮은 평균 비트 레이트로 나타내어질 수 있는 묵음 또는 배경 잡음인지의 여부에 대해 정확하고 안정적인 판정을 내리는 것이다. 일단 VAD가 데이터 프레임이 비 활성 음성 프레임이라고 판정하였다면, DTX 및 CNG 알고리즘은 비연속 전달 및 컴포트 노이즈 생성을 추가함으로써 묵음 압축 방식을 완성한다.
DTX는 갱신된 파라미터들이 비 활동 음성 디코더로 보내져야만 하는지의 여부를 결정하기 위해 (VAD 알고리즘에 의해 결정되는 대로의) 비 활동 음성 프레임들에 대해 작용한다. 비 활동 음성 디코더를 갱신하는 DTX 판정은 프레임 에너지 및 스펙트럼 왜곡 척도에 대한 절대치의 및 적응적인 문턱값들에 의존한다. 만일 판정이 파라미터들을 갱신하라는 것이라면, 비 활동 음성 인코더는 적합한 파라미터들을 인코딩하고 갱신된 파라미터들을 비 활동 음성 디코더로 보낸다. 비 활동 음성 디코더는 이후 갱신된 파라미터들에 기초해 비 활동 음성 신호를 생성할 수 있다. 만일 프레임이 절대치의 또는 적응적인 문턱값들을 트리거링하지 않는다면, 비 활동 음성 디코더는 가장 최근에 수신된 갱신에 기초하여 비 활동 음성 신호를 생성하기를 지속한다. 그 결과, 비 활동 음성 디코더는 VAD가 활동 음성 신호가 아니라고 결정한 신호로서 신호를 모방한 비 활동 음성 신호를 생성한다. 추가적으로, 비 활동 음성 신호는 비 활동 음성 신호에 의해 나타내어지는 배경 잡음이 상당하게 변화한다면 갱신될 수 있지만, 배경 잡음이 정상으로 남아있다면 비 활동 음성 디코더를 계속해서 갱신함으로써 대역폭을 소모하지 않게 된다.
비 활동 음성 디코더는 VAD가 음성 활동을 검출하지 못했을 때 컴포트 노이즈를 생성한다. CNG는 제어된 의사 랜덤(즉, 컴퓨터 생성된 랜덤) 여기 신호를 LPC 필터들 내로 도입함으로써 컴포트 노이즈를 생성한다. 비 활동 음성 디코더는 이후 이것이 활동 음성 신호를 산출하는 것만큼 비 활동 음성 신호를 산출한다. 의사 랜덤 여기는 활동 음성 추출과 의사 가우션 여기의 혼합체이다. 부록 B에 따르면, 랜덤 가우션 잡음은 각각의 비 활동 음성 프레임의 두 개의 하위 프레임에 있는 40 개 샘플의 각각에 대해 계산된다. 각각의 하위 프레임에 대해, 컴포트 노이즈 생성 여기는 고정된 도메인 내의 피치 래그(pitch lag)를 선택함으로써 시작한다. 다음으로, 고정 코드북 파라미터들은 코드북 그리드(codebook grid) 내에서 랜덤 선택들에 의해 생성된다. 이후 적응적인 여기 신호가 계산된다. 고정 코드북 파라미터들 및 랜덤 여기는 결합되어 복합 여기 신호를 형성한다. 복합 여기 신호는 이후 활동 음성 신호에 의해 요구되는 전송 대역폭을 소모시키지 않고서 통신 동안에 배경 잡음을 모방하도록 설계된 컴포트 노이즈를 산출하는 데에 사용된다.
활동 음성 신호 전송(즉, 활동 음성 프레임) 동안에, 활동 음성 인코더 및 활동 음성 디코더는 15 파라미터들을 활용하여 활동 음성 신호를 인코딩하고 디코딩한다. 비 활동 음성 또는 묵음 프레임 동안에, 네 개의 파라미터만이 사용되어 배경 잡음 또는 주변 조건들을 통신하게 된다.
주목한 바대로, 부록 B에 의해 제공된 CNG 알고리즘은 비 활동 음성 인코더 및 비 활동 음성 디코더로 하여금 비 활동 음성 프레임마다 랜덤 가우션 잡음을 발생하도록 야기한다. 랜덤 잡음이 생성된 모든 비 활동 음성 프레임은 이전 프레임(활동 음성 또는 비 활동 음성)으로부터의 여기(excitation)가 삽입되어 음성 신호의 급격한 변화를 완화시킨다. 인터넷 또는 멀티미디어 통신의 50% 또는 그 이상이 비 활동적이거나 묵음 상태이므로, 랜덤 잡음 생성은 불필요하게 프로세서 대역폭을 소모시킨다. 예를 들어, 부록 B에 따라 랜덤 잡음을 생성하는 것은 비 활동 음성 프레임당 대략 11,000의 프로세서 사이클을 요구한다.
본 발명의 실시예는 인코더에서 각각의 비 활동 음성 프레임에 대한 새로운 가우션 랜덤 잡음을 생성하는 단계에 비해 개선을 이룬다. 랜덤 가우션 수들의 속성을 고려했을 때, 임의의 주어진 프레임에 대해 생성되는 랜덤 잡음은 임의의 다른 비 활동 프레임에 대해 생성된 랜덤 잡음과 동일한 통계적 속성들을 갖는다. 실제의 배경 또는 주변 조건들이 변함에 따라, 복합 여기 신호(랜덤 신호가 성분임)를 실제 환경에 매칭시키는 데에 스케일링 팩터들이 사용될 수 있다. 요약하면, 스케일링 팩터들을 변경시키는 것만으로 스케일링된 랜덤 잡음과 귀결되는 복합 여기 신호를 주변 잡음 조건들에 대략 매칭시키는 데에 충분하므로, 인코더는 각각의 비 활동 음성 프레임에 대해 새로운 랜덤 잡음 신호를 생성할 필요가 없다. 본 발명의 실시예는 랜덤 가우션 잡음을 사전 계산하여 잡음 샘플 템플릿을 생성하고, 사전 계산된 잡음을 재사용하여 각각의 차순의 비 활동 음성 프레임에 대해 합성 필터를 여기한다. 일 실시예에서, 80 개의 랜덤 가우션 잡음 샘플이 있고, 이 샘플들은 80개의 엔트리 룩업 테이블에 저장된다. 랜덤 잡음의 정확한 값들은, 잡음의 통계적 및 스펙트럼 속성이 전송된 신호 내에 보유될 수 있다면, 중요하지도 않고 디코더 내에서 재생될 필요도 없다. 사전 계산된 랜덤 잡음을 재사용하는 것은 부록 B의 CNG 알고리즘을 구현할 때에 대략 11,000 프로세서 사이클이 걸리는 것과 비교하여 비 활동 음성 프레임당 대략 320 프로세서 사이클만을 요구한다. 대략 40배의 프로세서 사이클 절감과 관련하여 컴포트 노이즈의 품질의 열화는 거의 없거나 감지할만한 정도가 안 된다.
예를 들어 비 활동 음성 프레임을 보내고 수신하는 것과 관련된 지연은 전파 지연과 알고리즘 지연에 좌우된다. 이 전파 지연은 컴포트 노이즈 생성 알고리즘의 선택과 무관한 반면, 정의상 알고리즘 지연은 알고리즘에 의존적이다. 앞서 언급한 대로, 부록 B의 CNG 알고리즘은 비 활동 음성 프레임 당 대략 11,000 프로세서 사이클을 요구하는 반면에, 본 발명의 실시예의 CNG 알고리즘은 대략 320 프로세서 사이클을 요구할 뿐이다. 프로세서 사이클의 감축은 알고리즘 지연을 감축하고, 그 다음으로 비 활동 음성 프레임을 보내고 수신하는 것과 관련된 전체적 지연을 감소시킨다. 이 전체적 지연의 감소는, 사용자가 전파 지연(예로, 전통적인 전화 시스템의 지연)에 대해서는 익숙해졌고 편안해 할 것이기 때문에, 청취 환경을 개선시킨다.
종래 기술에서 특정적으로, 및 도2에 도해된 대로, 부록 B의 CNG 알고리즘의 부분이 (201)부터 시작한다. 만일 현재 프레임의 이득이 제로라면, 이 알고리즘은 여기(excitation)를 제로들로 패딩(padding)한다(202). 알고리즘은 이후 랜덤 적응적 코드북과 고정 코드북 파라미터를 생성한다(203). 40 개의 새로운 가우션 여기 샘플들이 이후 각각의 하위 프레임에 대해 생성된다(204). 랜덤 적응적 여기가 생성된다(205). 현재의 여기는 적응적 및 가우션 여기를 합산함으로써 계산되고, 현재의 여기가 리스케일링된다(206). 이 알고리즘은 이후 고정 코드북 이득을 계산하고(207), ACELP 여기로 현재 여기를 갱신한다(208). 처리가, 하위 프레임이 루프가 정지하는 포인트에서 활동 음성 프레임이 되기까지(210), 비 활동 음성 하위프레임인 매 하위 프레임마다 루핑한다(209).
도3은 본 발명의 실시예를 묘사하는 흐름도이다. 실시예의 알고리즘의 일부분이 (301)에서 시작한다. 만일 현재 프레임의 이득이 제로라면, 이 알고리즘은 제로들로 여기를 패딩한다(302). 알고리즘은 이후 랜덤 적응적 코드북 및 고정 코드북 파라미터들을 생성한다(303). 알고리즘은 사전 계산된 가우션 잡음 샘플들을 재사용하여 80개의 엔트리 룩업 테이블(즉, 80 가우션 잡음 샘플들)로부터 가우션 여기를 생성한다(304). 랜덤 적응적 여기가 생성된다(305). 현재 여기는 적응적 및 가우션 여기를 합산함으로써 계산되고, 현재 여기가 리스케일링된다(306). 알고리즘은 이후 고정 코드북 이득을 계산하고(307), ACELP 여기로 현재 여기를 갱신한다(308). 처리는 하위 프레임이 루프가 정지하는 포인트에서 활동 음성 프레임이 되기까지(310), 비 활동 음성 하위 프레임인 매 하위 프레임마다 루핑한다(309).
신규한 개선 사항은, 매 하위 프레임마다 가우션 잡음을 생성하는 것과 (204), 예를 들어 80 엔트리 룩업 테이블로부터 사전 계산된 가우션 잡음을 재사용하는 것(304) 간의 차이에 있다. 본 발명의 실시예의 혜택은 컴포트 노이즈 생성에 있어서, 계산적 복잡도와 대응하는 알고리즘 지연을 감소시키는 것이다. 특히, 새로운 랜덤 수들이 인코더측에서의 모든 비 활동 음성 프레임마다 생성될 필요가 없다; 그보다는 일 프레임의 지속을 담당(cover)하는 단일 세트의 랜덤 수들이, 청취자에게 아무런 인식가능한 열화 및 왜곡을 야기하지 않고서 컴포트 노이즈 생성을 트리거링하는 모든 그 밖의 비 활동 음성 프레임들에서 계산되고 재사용될 수 있다는 점이다. 본 발명의 실시예는 사전 계산된 랜덤 수들의 어레이 또는 템플릿을 활용함으로써 AWGN(Adaptive White Gaussian Noise)의 지속적 실시간 계산에 대한 필요를 감소시킨다. 사전 계산된 랜덤 수들의 어레이는 모든 컴포트 노이즈 프레임들에 대해서 재사용되어 합성 필터를 적응시킨다. 그 결과, 본 발명의 실시예는 인코더의 모든 컴포트 노이즈 프레임마다의 컴포트 노이즈 생성에서 가장 계산적으로 부담이 되는 요소를 간략화한다.
부록 B의 VAD, DTX 및 CNG 요소들의 목표는, 본 발명의 실시예가 더 적은 컴퓨팅 리소스를 요구하면서 예를 들어 동등하게 만족스러운 인터넷 및 멀티미디어 통신 환경을 생성한다는 점에서 본 발명의 실시예에 의해 더 잘 충족된다. 언급한대로, 생성된 컴포트 노이즈의 품질에서의 인식할만한 열화는 없으며, 프로세서 대역폭 절감도 상당하다.
본 알고리즘이 인터넷 및 멀티미디어 통신에만 국한되는 것은 아니며, 본 발명의 실시예의 CNG 알고리즘의 감소된 계산적 요구로부터 혜택을 입을 수 있는 임의의 통신 애플리케이션들에 통합될 수 있다는 점을 주의해야 한다. 또한, CNG 알고리즘이 부록 B 표준의 인코더 측을 참조하여 기술되었지만, 본 발명의 실시예의 CNG 알고리즘의 사용은 부록 B에만 국한되는 것은 아니다. 그보다는, CNG 알고리즘, 특히 사전 계산된 랜덤 수들의 재사용은 임의의 컴포트 노이즈 생성 방식에 응용될 수 있다.
당업자는 개시된 실시예가 묵음 기간 동안에 배경 잡음을 정확히 모방하는 컴포트 노이즈를 생성하여 계산적 복잡도를 감소시킨다는 점에서 본 발명의 장점을 알게 될 것이다. 본 발명은 이런 계산을 행하는 프로세서 부하를 줄이면서도 만족할만한 통신 환경을 생성하는 개선된 해결책을 제공하였다.

Claims (40)

  1. 복수의 랜덤 잡음 샘플들(random noise samples)에 기초하여 복수의 랜덤 여기들(random excitations)을 계산하는 단계;
    상기 랜덤 여기들을 저장하는 단계;
    신호 내의 음성 활동(voice activity)을 검출하는 단계; 및
    아무런 음성 활동도 검출되지 않으면 비 활동 음성 신호(non active voice signal)를 생성하기 위해 상기 신호를 인코딩하는 단계를 포함하고,
    상기 인코딩 단계는,
    상기 비 활동 음성 신호의 프레임에 대하여, 스케일링 팩터, 및 상기 랜덤 여기들 중 하나에 기초하여 여기를 계산하는 단계;
    상기 신호의 잡음 조건에 기초하여 상기 스케일링 팩터를 변경하는 단계; 및
    상기 비 활동 음성 신호의 다른 프레임에 대하여, 상기 변경된 스케일링 팩터 및 상기 랜덤 여기들에 기초하여, 상기 신호의 잡음 조건을 나타내는 다른 여기를 계산하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서, 상기 비 활동 음성 신호의 프레임의 이득이 제로이면 여기에 제로들을 패딩(padding)하는 단계를 더 포함하는 방법.
  3. 제2항에 있어서, 랜덤 적응적 코드북(random adaptive codebook) 파라미터들 및 고정 코드북(fixed codebook) 파라미터들을 생성하는 단계를 더 포함하는 방법.
  4. 제3항에 있어서,
    상기 비 활동 음성 신호의 프레임에 대해 여기를 계산하는 단계는
    상기 랜덤 적응적 코드북 파라미터들에 기초하여 랜덤 적응적 여기를 생성하는 단계;
    상기 랜덤 여기들 중 하나와 상기 랜덤 적응적 여기의 합(sum)을 계산하는 단계; 및
    상기 랜덤 여기들 중 하나와 상기 랜덤 적응적 여기의 합을 리스케일링(rescaling)하는 단계
    를 포함하는 방법.
  5. 제4항에 있어서,
    상기 비 활동 음성 신호의 프레임에 대해 여기를 계산하는 단계는
    상기 고정 코드북 파라미터들에 기초하여 고정 코드북 이득을 계산하는 단계; 및
    대수적-코드-여기된 선형-예측 여기(algebraic-code-excited linear-prediction excitation)로 상기 여기를 갱신하는 단계
    를 더 포함하는 방법.
  6. 제1항에 있어서, 상기 랜덤 잡음 샘플들은 가우션(Gaussian) 잡음 샘플들인 방법.
  7. 프로세싱 머신에 의해 실행될 때, 상기 프로세싱 머신으로 하여금,
    복수의 랜덤 잡음 샘플들에 기초하여 복수의 랜덤 여기들을 계산하는 단계;
    상기 랜덤 여기들을 저장하는 단계;
    신호 내의 음성 활동을 검출하는 단계; 및
    아무런 음성 활동도 검출되지 않으면 비 활동 음성 신호를 생성하기 위해 상기 신호를 인코딩하는 단계를 포함하고,
    상기 인코딩 단계는,
    상기 비 활동 음성 신호의 프레임에 대하여, 스케일링 팩터, 및 상기 랜덤 여기들 중 하나에 기초하여 여기를 계산하는 단계;
    상기 신호의 잡음 조건에 기초하여 상기 스케일링 팩터를 변경하는 단계; 및
    상기 비 활동 음성 신호의 다른 프레임에 대하여, 상기 변경된 스케일링 팩터 및 상기 랜덤 여기들에 기초하여, 상기 신호의 잡음 조건을 나타내는 다른 여기를 계산하는 단계
    를 포함하는 방법을 실행하게 하는 컴퓨터 프로그램을 포함하는 컴퓨터 판독 가능 기억 매체.
  8. 제7항에 있어서, 상기 방법은 상기 비 활동 음성 신호의 프레임의 이득이 제로이면 여기에 제로들을 패딩(padding)하는 단계를 더 포함하는 컴퓨터 판독 가능 기억 매체.
  9. 제8항에 있어서, 상기 방법은 랜덤 적응적 코드북 파라미터들 및 고정 코드북 파라미터들을 생성하는 단계를 더 포함하는 컴퓨터 판독 가능 기억 매체.
  10. 제9항에 있어서,
    상기 비 활동 음성 신호의 프레임에 대해 여기를 계산하는 단계는
    상기 랜덤 적응적 코드북 파라미터들에 기초하여 랜덤 적응적 여기를 생성하는 단계;
    상기 랜덤 여기들 중 하나와 상기 랜덤 적응적 여기의 합을 계산하는 단계; 및
    상기 랜덤 여기들 중 하나와 상기 랜덤 적응적 여기의 합을 리스케일링하는 단계
    를 포함하는 컴퓨터 판독 가능 기억 매체.
  11. 제10항에 있어서,
    상기 비 활동 음성 신호의 프레임에 대해 여기를 계산하는 단계는
    상기 고정 코드북 파라미터들에 기초하여 고정 코드북 이득을 계산하는 단계; 및
    대수적-코드-여기된 선형-예측 여기(algebraic-code-excited linear-prediction excitation)로 상기 여기를 갱신하는 단계
    를 더 포함하는 컴퓨터 판독 가능 기억 매체.
  12. 제7항에 있어서, 상기 랜덤 잡음 샘플들은 가우션 잡음 샘플들인 컴퓨터 판독 가능 기억 매체.
  13. 통신 채널에 연결된 인코더 - 상기 인코더는 비 활동 음성 신호의 제1 프레임에 대하여 스케일링 팩터, 및 복수의 랜덤 여기들 중 하나에 기초하여 여기를 계산하고, 상기 인코더는 상기 비 활동 음성 신호의 제2 프레임에 대하여 상기 스케일링 팩터 및 상기 랜덤 여기들에 기초하여 다른 여기를 더 계산하며, 상기 스케일링 팩터는 상기 신호의 잡음 조건에 기초하여 상기 제1 프레임의 계산 이후에 변경되었고, 상기 다른 여기는 상기 신호의 잡음 조건을 나타냄 - ;
    상기 인코더에 연결되어 비 활동 음성 신호를 검출하는 음성 활동 검출기;
    상기 통신 채널에 연결된 디코더 - 상기 디코더는 상기 음성 활동 검출기가 상기 비 활동 음성 신호를 검출하지 않으면 컴포트 노이즈(comfort noise)를 생성하는 컴포트 노이즈 발생기를 더 포함함 -
    를 포함하는 장치.
  14. 제13항에 있어서, 상기 컴포트 노이즈 발생기는 상기 비 활동 음성 신호의 프레임의 이득이 제로이면 여기에 제로들을 패딩하도록 더 구성된 장치.
  15. 제14항에 있어서, 상기 컴포트 노이즈 발생기는 랜덤 적응적 코드북 파라미터들 및 고정 코드북 파라미터들을 생성하도록 더 구성된 장치.
  16. 제15항에 있어서,
    상기 비 활동 음성 신호의 프레임에 대해 여기를 계산하는 것은
    상기 랜덤 적응적 코드북 파라미터들에 기초하여 랜덤 적응적 여기를 생성하는 것;
    상기 랜덤 여기들 중 하나와 상기 랜덤 적응적 여기의 합을 계산하는 것; 및
    상기 랜덤 여기들 중 하나와 상기 랜덤 적응적 여기의 합을 리스케일링하는 것
    을 포함하는 장치.
  17. 제16항에 있어서,
    상기 비 활동 음성 신호의 프레임에 대해 여기를 계산하는 것은
    상기 고정 코드북 파라미터들에 기초하여 고정 코드북 이득을 계산하는 것; 및
    대수적-코드-여기된 선형-예측 여기로 상기 여기를 갱신하는 것
    을 더 포함하는 장치.
  18. 제13항에 있어서, 상기 랜덤 여기들은 복수의 랜덤 잡음 샘플들에 기초하는 장치.
  19. 제18항에 있어서, 상기 랜덤 잡음 샘플들은 가우션 잡음 샘플들인 장치.
  20. 프로세싱 머신에 의해 실행될 때, 상기 프로세싱 머신으로 하여금,
    통신 채널에 연결된 인코더 - 상기 인코더는 비 활동 음성 신호의 제1 프레임에 대하여 스케일링 팩터, 및 복수의 랜덤 여기들 중 하나에 기초하여 여기를 계산하고, 상기 인코더는 상기 비 활동 음성 신호의 제2 프레임에 대하여 상기 스케일링 팩터 및 상기 랜덤 여기들에 기초하여 다른 여기를 더 계산하며, 상기 스케일링 팩터는 오디오 신호의 잡음 조건에 기초하여 상기 제1 프레임의 계산 이후에 변경되었고, 상기 다른 여기는 상기 오디오 신호의 잡음 조건을 나타냄 - ;
    상기 인코더에 연결되어 상기 비 활동 음성 신호를 검출하는 음성 활동 검출기;
    상기 통신 채널에 연결된 디코더 - 상기 디코더는 상기 음성 활동 검출기가 상기 비 활동 음성 신호를 검출하지 않으면 컴포트 노이즈를 생성하는 컴포트 노이즈 발생기를 더 포함함 -
    로서 기능하게 하는 컴퓨터 프로그램을 포함하는 컴퓨터 판독 가능 기억 매체.
  21. 제20항에 있어서, 상기 컴포트 노이즈 발생기는 상기 비 활동 음성 신호의 프레임의 이득이 제로이면 여기에 제로들을 패딩하도록 더 구성된 컴퓨터 판독 가능 기억 매체.
  22. 제21항에 있어서, 상기 컴포트 노이즈 발생기는 랜덤 적응적 코드북 파라미터들 및 고정 코드북 파라미터들을 생성하도록 더 구성된 컴퓨터 판독 가능 기억 매체.
  23. 제22항에 있어서,
    상기 비 활동 음성 신호의 프레임에 대해 여기를 계산하는 것은
    상기 랜덤 적응적 코드북 파라미터들에 기초하여 랜덤 적응적 여기를 생성하는 것;
    상기 랜덤 여기들 중 하나와 상기 랜덤 적응적 여기의 합을 계산하는 것; 및
    상기 랜덤 여기들 중 하나와 상기 랜덤 적응적 여기의 합을 리스케일링하는 것
    을 포함하는 컴퓨터 판독 가능 기억 매체.
  24. 제23항에 있어서,
    상기 비 활동 음성 신호의 프레임에 대해 여기를 계산하는 것은
    상기 고정 코드북 파라미터들에 기초하여 고정 코드북 이득을 계산하는 것; 및
    대수적-코드-여기된 선형-예측 여기로 상기 여기를 갱신하는 것
    을 더 포함하는 컴퓨터 판독 가능 기억 매체.
  25. 제20항에 있어서, 상기 랜덤 여기들은 복수의 랜덤 잡음 샘플들에 기초하는 컴퓨터 판독 가능 기억 매체.
  26. 제25항에 있어서, 상기 랜덤 잡음 샘플들은 가우션 잡음 샘플들인 컴퓨터 판독 가능 기억 매체.
  27. 비 활동 음성 신호를 인코딩하는 단계를 포함하고
    상기 인코딩 단계는,
    비 활동 음성 프레임에 대하여 스케일링 팩터, 및 복수의 랜덤 여기들 중 하나에 기초하여 여기를 계산하는 단계; 및
    오디오 신호의 잡음 조건에 기초하여 상기 스케일링 팩터를 변경하는 단계; 및
    다른 비 활동 음성 프레임에 대해, 상기 변경된 스케일링 팩터 및 상기 랜덤 여기들에 기초하여, 상기 오디오 신호의 잡음 조건을 나타내는 다른 여기를 계산하는 단계
    를 포함하는 방법.
  28. 제27항에 있어서, 상기 비 활동 음성 프레임의 이득이 제로이면 여기에 제로들을 패딩하는 단계를 더 포함하는 방법.
  29. 제28항에 있어서, 랜덤 적응적 코드북 파라미터들 및 고정 코드북 파라미터들을 생성하는 단계를 더 포함하는 방법.
  30. 제29항에 있어서,
    상기 비 활동 음성 프레임에 대해 여기를 계산하는 단계는
    상기 랜덤 적응적 코드북 파라미터들에 기초하여 랜덤 적응적 여기를 생성하는 단계;
    상기 랜덤 여기들 중 하나와 상기 랜덤 적응적 여기의 합을 계산하는 단계; 및
    상기 랜덤 여기들 중 하나와 상기 랜덤 적응적 여기의 합을 리스케일링하는 단계
    를 포함하는 방법.
  31. 제30항에 있어서,
    상기 비 활동 음성 프레임에 대해 여기를 계산하는 단계는
    상기 고정 코드북 파라미터들에 기초하여 고정 코드북 이득을 계산하는 단계; 및
    대수적-코드-여기된 선형-예측 여기로 상기 여기를 갱신하는 단계
    를 더 포함하는 방법.
  32. 제27항에 있어서, 상기 랜덤 여기들은 복수의 랜덤 잡음 샘플들에 기초하는 방법.
  33. 제32항에 있어서, 상기 랜덤 잡음 샘플들은 가우션 잡음 샘플들인 방법.
  34. 비 활동 음성 신호의 제1 프레임에 대하여 스케일링 팩터, 및 복수의 랜덤 여기들 중 하나에 기초하여 여기를 계산하고, 상기 비 활동 음성 신호의 제2 프레임에 대하여 상기 스케일링 팩터 및 상기 복수의 랜덤 여기에 기초하여 다른 여기를 더 계산하는 인코더 - 상기 스케일링 팩터는 오디오 신호의 잡음 조건에 기초하여 상기 제1 프레임의 계산 이후에 변경되었고, 상기 다른 여기는 상기 오디오 신호의 잡음 조건을 나타냄-
    를 포함하는 장치.
  35. 제34항에 있어서, 상기 인코더는 상기 비 활동 음성 신호의 프레임의 이득이 제로이면 여기에 제로들을 패딩하도록 더 구성된 장치.
  36. 제35항에 있어서, 상기 인코더는 랜덤 적응적 코드북 파라미터들 및 고정 코드북 파라미터들을 생성하도록 더 구성된 장치.
  37. 제36항에 있어서,
    상기 비 활동 음성 신호의 프레임에 대해 여기를 계산하는 것은
    상기 랜덤 적응적 코드북 파라미터들에 기초하여 랜덤 적응적 여기를 생성하는 것;
    상기 랜덤 여기들 중 하나와 상기 랜덤 적응적 여기의 합을 계산하는 것; 및
    상기 랜덤 여기들 중 하나와 상기 랜덤 적응적 여기의 합을 리스케일링하는 것
    을 포함하는 장치.
  38. 제37항에 있어서,
    상기 비 활동 음성 신호의 프레임에 대해 여기를 계산하는 것은
    상기 고정 코드북 파라미터들에 기초하여 고정 코드북 이득을 계산하는 것; 및
    대수적-코드-여기된 선형-예측 여기로 상기 여기를 갱신하는 것
    을 더 포함하는 장치.
  39. 제34항에 있어서, 상기 랜덤 여기들은 복수의 랜덤 잡음 샘플들에 기초하는 장치.
  40. 제39항에 있어서, 상기 랜덤 잡음 샘플들은 가우션 잡음 샘플들인 장치.
KR1020067018858A 2004-03-15 2005-03-14 음성 통신용 컴포트 노이즈 생성 방법 KR100847391B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/802,135 2004-03-15
US10/802,135 US7536298B2 (en) 2004-03-15 2004-03-15 Method of comfort noise generation for speech communication

Publications (2)

Publication Number Publication Date
KR20060121990A KR20060121990A (ko) 2006-11-29
KR100847391B1 true KR100847391B1 (ko) 2008-07-18

Family

ID=34920887

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067018858A KR100847391B1 (ko) 2004-03-15 2005-03-14 음성 통신용 컴포트 노이즈 생성 방법

Country Status (6)

Country Link
US (1) US7536298B2 (ko)
EP (1) EP1726006A2 (ko)
JP (1) JP2007525723A (ko)
KR (1) KR100847391B1 (ko)
CN (1) CN101069231A (ko)
WO (1) WO2005091273A2 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080059161A1 (en) * 2006-09-06 2008-03-06 Microsoft Corporation Adaptive Comfort Noise Generation
CN101335003B (zh) * 2007-09-28 2010-07-07 华为技术有限公司 噪声生成装置、及方法
CN101453517B (zh) * 2007-09-28 2013-08-07 华为技术有限公司 噪声生成装置、及方法
CN101226741B (zh) * 2007-12-28 2011-06-15 无敌科技(西安)有限公司 一种活动语音端点的侦测方法
US8483854B2 (en) * 2008-01-28 2013-07-09 Qualcomm Incorporated Systems, methods, and apparatus for context processing using multiple microphones
CN101339767B (zh) * 2008-03-21 2010-05-12 华为技术有限公司 一种背景噪声激励信号的生成方法及装置
US20140278380A1 (en) * 2013-03-14 2014-09-18 Dolby Laboratories Licensing Corporation Spectral and Spatial Modification of Noise Captured During Teleconferencing
CN110097892B (zh) * 2014-06-03 2022-05-10 华为技术有限公司 一种语音频信号的处理方法和装置
CN106531175B (zh) * 2016-11-13 2019-09-03 南京汉隆科技有限公司 一种网络话机柔和噪声产生的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528727A (en) 1992-11-02 1996-06-18 Hughes Electronics Adaptive pitch pulse enhancer and method for use in a codebook excited linear predicton (Celp) search loop
WO2002007061A2 (en) * 2000-07-14 2002-01-24 Conexant Systems, Inc. A speech communication system and method for handling lost frames
WO2004012097A1 (en) * 2002-07-26 2004-02-05 Motorola, Inc. Method for fast dynamic estimation of background noise

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2668288B1 (fr) * 1990-10-19 1993-01-15 Di Francesco Renaud Procede de transmission, a bas debit, par codage celp d'un signal de parole et systeme correspondant.
US5794199A (en) * 1996-01-29 1998-08-11 Texas Instruments Incorporated Method and system for improved discontinuous speech transmission
JP3464371B2 (ja) * 1996-11-15 2003-11-10 ノキア モービル フォーンズ リミテッド 不連続伝送中に快適雑音を発生させる改善された方法
US6480822B2 (en) * 1998-08-24 2002-11-12 Conexant Systems, Inc. Low complexity random codebook structure
US6226607B1 (en) * 1999-02-08 2001-05-01 Qualcomm Incorporated Method and apparatus for eighth-rate random number generation for speech coders
US6782361B1 (en) * 1999-06-18 2004-08-24 Mcgill University Method and apparatus for providing background acoustic noise during a discontinued/reduced rate transmission mode of a voice transmission system
US6604070B1 (en) * 1999-09-22 2003-08-05 Conexant Systems, Inc. System of encoding and decoding speech signals
JP4518714B2 (ja) * 2001-08-31 2010-08-04 富士通株式会社 音声符号変換方法
US8879432B2 (en) * 2002-09-27 2014-11-04 Broadcom Corporation Splitter and combiner for multiple data rate communication system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528727A (en) 1992-11-02 1996-06-18 Hughes Electronics Adaptive pitch pulse enhancer and method for use in a codebook excited linear predicton (Celp) search loop
WO2002007061A2 (en) * 2000-07-14 2002-01-24 Conexant Systems, Inc. A speech communication system and method for handling lost frames
WO2004012097A1 (en) * 2002-07-26 2004-02-05 Motorola, Inc. Method for fast dynamic estimation of background noise

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Coding of Speech at 8Kbit/s using conjugate structure algebraic-code-excited linear-prediction(CS-ACELP)
ITU-T Standard G.729 Annex B (1996.11)*
Proc. of EUROSPEECH, pp.2359-2362 (1999.9)*

Also Published As

Publication number Publication date
KR20060121990A (ko) 2006-11-29
JP2007525723A (ja) 2007-09-06
EP1726006A2 (en) 2006-11-29
US7536298B2 (en) 2009-05-19
CN101069231A (zh) 2007-11-07
WO2005091273A2 (en) 2005-09-29
US20050203733A1 (en) 2005-09-15
WO2005091273A3 (en) 2007-03-29

Similar Documents

Publication Publication Date Title
KR100847391B1 (ko) 음성 통신용 컴포트 노이즈 생성 방법
US10438601B2 (en) Method and arrangement for controlling smoothing of stationary background noise
CN108352164B (zh) 将立体声信号时域下混合为主和辅声道的使用左和右声道之间的长期相关差的方法和系统
US6810377B1 (en) Lost frame recovery techniques for parametric, LPC-based speech coding systems
RU2325707C2 (ru) Способ и устройство для эффективного маскирования стертых кадров в речевых кодеках на основе линейного предсказания
KR101692659B1 (ko) 낮은 비트 레이트들로 배경 잡음을 모델링하기 위한 안정 잡음 부가
JP2002202800A (ja) 背景ノイズエネルギーレベルを見積もる方法と装置
EP1554717B1 (en) Preprocessing of digital audio data for mobile audio codecs
US10199050B2 (en) Signal codec device and method in communication system
US6424942B1 (en) Methods and arrangements in a telecommunications system
US8380495B2 (en) Transcoding method, transcoding device and communication apparatus used between discontinuous transmission
CA2378035A1 (en) Coded domain noise control
US9208796B2 (en) Estimation of speech energy based on code excited linear prediction (CELP) parameters extracted from a partially-decoded CELP-encoded bit stream and applications of same
JP5604572B2 (ja) 複雑さ分散によるデジタル信号の転送誤り偽装
US7584096B2 (en) Method and apparatus for encoding speech
JP3451998B2 (ja) 無音声符号化を含む音声符号化・復号装置、復号化方法及びプログラムを記録した記録媒体
CN101266798B (zh) 一种在语音解码器中进行增益平滑的方法及装置
JP3055608B2 (ja) 音声符号化方法および装置
JPH07334197A (ja) 音声符号化装置
JP2001265390A (ja) 複数レートで動作する無音声符号化を含む音声符号化・復号装置及び方法
JP2004078235A (ja) 複数レートで動作する無音声符号化を含む音声符号化・復号装置
JP2003233398A (ja) 無音声符号化を含む音声符号化・復号装置、復号化方法及びプログラムを記録した記録媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130701

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140701

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150630

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee