KR101248535B1 - 배경 노이즈 생성 방법 및 노이즈 처리 장치 - Google Patents
배경 노이즈 생성 방법 및 노이즈 처리 장치 Download PDFInfo
- Publication number
- KR101248535B1 KR101248535B1 KR1020107023132A KR20107023132A KR101248535B1 KR 101248535 B1 KR101248535 B1 KR 101248535B1 KR 1020107023132 A KR1020107023132 A KR 1020107023132A KR 20107023132 A KR20107023132 A KR 20107023132A KR 101248535 B1 KR101248535 B1 KR 101248535B1
- Authority
- KR
- South Korea
- Prior art keywords
- parameter
- noise
- encoding parameter
- high band
- frame
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000012545 processing Methods 0.000 title claims abstract description 26
- 238000009499 grossing Methods 0.000 claims abstract description 69
- 230000002123 temporal effect Effects 0.000 claims description 6
- 239000000654 additive Substances 0.000 claims 1
- 230000000996 additive effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/012—Comfort noise or silence coding
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
사용자의 체험을 제고하기 위해 배경 노이즈 생성 방법 및 노이즈 처리 장치가 제공된다. 상기 방법은 취득된 신호 프레임이 노이즈 프레임인 경우, 상기 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터를 취득하는 단계; 상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계; 및 상기 제2 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성하는 단계를 포함한다. 노이즈 처리 장치도 제공된다.
Description
삭제
본 출원은 통신에 관한 것이며, 더욱 구체적으로는 배경 노이즈 생성 방법 및 노이즈 처리 장치에 관한 것이다.
현재의 데이터 전송 시스템에서는, 음성 코딩 기술을 사용하여 음성 신호(speech signal)의 전송 대역폭을 압축하여 통신 시스템의 용량을 증가시킬 수 있다. 음성 통신에서 약 40%의 컨텐츠만이 음성을 포함하고 나머지 전송 컨텐츠는 무음 또는 배경 노이즈(background noise)일 뿐이므로, 전송 대역폭을 더욱 절약하기 위해 비연속 전송 시스템(Discontinuous Transmission System, DTX)/안락 노이즈 생성(Comfortable Noise Generation, CNG) 기법이 출현하였다.
종래기술의 DTX/CNG 기초한 노이즈 생성 방법은 다음의 단계들을 포함한다:
인코딩단(encoding end)에서는, 입력 배경 노이즈 신호를 2개의 부대역(subband)으로 필터링하여 저부대역(low subband) 신호와 고부대역(hig subband) 신호를 출력한다.
이 두 개의 부대역 신호를 인코딩하여, 협대역 인코딩 파라미터(narrow band encoding parameter)와 고대역 인코딩 파라미터(high band encoding parameter)를 취득한다. 두 개의 부대역에 대한 인코딩 파라미터는 노이즈가 없는 프레임(non-noise frame)로 결합된다. DTX의 현재의 결정이 "전송"인 경우, 고대역 인코딩 파라미터와 협대역 인코딩 파라미터를 무음 삽입 설명자(Silence Insertion Descriptor, SID) 프레임으로 조립한 다음, 이 SID 프레임을 디코딩측(decoding end)에 전송하고; 그렇지 않으면, 아무 데이터도 없는 NODATA 프레임을 디코딩단(decoding end)에 전송한다.
디코딩단에서는, 수신된 인코딩된 비트스트림이 협대역의 인코딩 파라미터만을 포함하는 경우, 729B의 디코딩 방식으로 디코딩을 실행하며, 인코딩 파라미터는 첫 번째 10ms 프레임에 사용되고, 두 번째 10ms 프레임은 NODATA 프레임으로 처리된다.
수신된 인코딩된 비트스트림에 광대역의 인코딩 파라미터가 있는 경우, 광대역은 고대역과 협대역을 포함하고, 디코딩 프로세스는 다음의 단계들을 포함한다:
수신된 프레임이 SID 프레임인 경우, SID 프레임를 디코딩하여 협대역 인코딩 파라미터 및 고대역 인코딩 파라미터를 취득하고, 이 협대역 인코딩 파라미터 및 고대역 인코딩 파라미터에 따라 협대역 배경 노이즈와 고대역 배경 노이즈를 생성한다.
수신된 프레임이 NODATA 프레임인 경우, 729B의 인코딩 방식으로 협대역 인코딩 파라미터를 취득하고, 729B의 CNG 방식으로 협대역 배경 노이즈를 취득한다. 고대역 인코딩 파라미터는 이전의 SID 프레임의 고대역 인코딩 파라미터: 와 동일하고, 그에 따라 고대역 배경 노이즈를 생성한다.
그러나, 상기 기술적 해법에서는, NODATA 프레임이 수신된 때, 이전의 SID 프레임의 고대역 인코딩 파라미터가 현재 프레임의 고대역 인코딩 파라미터로서 직접 복제되기 때문에, 두 개의 SID 프레임의 인코딩 효과는 완전히 동일하다.
두 개의 인접한 SID 프레임의 인코딩 파라미터가 상당히 다른 경우, 광대역 배경 노이즈들 사이의 차이는 상당히 클 수 있고 음성 스펙트럼에서 "블록(block)" 효과가 발생할 것이고, 숨소리 같은 청각 효과를 사용자에게 줄 것이기 때문에 사용자의 체험을 저하시키다.
본 발명의 실시예는 사용자의 체험을 제고하기 위한 배경 노이즈 생성 방법 및 노이즈 처리 장치를 제공한다.
본 발명의 실시예에 따른 배경 노이즈 생성 방법은, 취득된 신호 프레임이 노이즈 프레임(noise frame)인 경우, 상기 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터를 취득하는 단계; 상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계; 및 상기 제2 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성하는 단계를 포함한다.
본 발명의 실시예에 따른 노이즈 처리 장치는, 신호 프레임를 취득하도록 구성된 신호 프레임 취득 유닛; 상기 신호 프레임으로부터 고대역 인코딩 파라미터를 취득하도록 구성되고, 상기 신호 프레임이 노이즈 프레임인 경우 상기 고대역 인코딩 파라미터는 고대역 노이즈 인코딩 파라미터인, 파라미터 취득 유닛; 상기 취득된 신호 프레임이 노이즈 프레임인 경우, 상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된 파라미터 처리 유닛; 및 상기 제2 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성하도록 구성된 노이즈 생성 유닛을 포함한다.
상기 기술적 해법에 의해, 본 발명의 실시예들은 다음의 이점을 제공한다:
본 발명의 실시예에서는, 신호 프레임을 취득한 후, 신호 프레임이 노이즈 프레임인 경우, 그 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터 취득하고, 그 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행한다, 즉 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하고/하거나 주파수 포락(frequency envelope)에 대해 가중치 부여를 수행한 후, 복원된 배경 노이즈의 연속성이 증가되어, SID 프레임간의 차가 비교적 작아지므로, "블록" 효과를 효과적으로 제거하여 사용자의 체험을 제고한다.
도 1은 본 발명의 제1 실시예에 따른 배경 노이즈 생성 방법의 블록도이다.
도 2는 본 발명의 제2 실시예에 따른 배경 노이즈 생성 방법의 블록도이다.
도 3은 본 발명의 제3 실시예에 따른 배경 노이즈 생성 방법의 블록이다.
도 4는 본 발명의 실시예에 따른 노이즈 처리 장치의 블록도이다.
도 2는 본 발명의 제2 실시예에 따른 배경 노이즈 생성 방법의 블록도이다.
도 3은 본 발명의 제3 실시예에 따른 배경 노이즈 생성 방법의 블록이다.
도 4는 본 발명의 실시예에 따른 노이즈 처리 장치의 블록도이다.
본 발명의 실시예는 사용자의 체험을 제고하기 위한 배경 노이즈 생성 방법 및 노이즈 처리 장치를 제공한다.
본 발명의 실시예에서, 신호 프레임을 취득한 후, 그 신호 프레임이 노이즈 프레임인 경우, 그 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터 취득하고, 노이즈 프레임에 따라 가중치 부여 및/또는 평활화를 처리한다. 즉, 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하고/하거나 주파수 포락에 대해 가중치 부여를 수행한 후, 복원된 배경 노이즈의 연속성이 증가되어, SID 프레임간의 차가 비교적 작아지므로, "블록" 효과를 효과적으로 제거하여 사용자의 체험을 제고한다.
도 1을 참조하면, 본 발명의 제1 실시예에 따른 배경 노이즈 생성 방법은 다음의 단계들을 포함한다:
101: 취득된 신호 프레임이 노이즈 프레임인 경우, 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터를 취득한다.
본 실시예에서, 고대역 노이즈 인코딩 파라미터는 시간(시간-도메인) 포락 파라미터와 주파수(주파수-도메인) 포락 파라미터를 포함한다.
신호 프레임은 인코딩단 또는 디코딩단에서 취득될 수 있다. 자세한 것은 아래의 실시예에서 설명할 것이므로 여기서는 더 이상 설명하지 않는다.
102: 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득한다.
노이즈 프레임을 취득한 후, 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여, 제2 고대역 노이즈 인코딩 파라미터를 취득한다. 유의할 것은, 실제 애플리케이션에서는, 노이즈 프레임에는 고대역 노이즈 인코딩 파라미터 외에 협대역 노이즈 인코딩 파라미터도 포함한다는 것이다. 자세한 프로세스에 대해서는 아래의 실시예에서 설명한다.
본 실시예에서, 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행할 수 있거나, 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여를 수행할 수 있거나, 또는 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및 평활화를 모두 수행할 수 있으며, 가중치 부여 및 평활화를 모두 수행함으로써 더 나은 효과를 얻을 수 있다.
유의할 것은, 본 실시예에서, 고노이즈 프레임의 대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하는 것에 더해, 음성 프레임(speech frame)의 고대역 음성 인코딩 파라미터에 따라 제2 고대역 노이즈 인코딩 파라미터에 대해서도 평활화를 수행하리 수 있다. 자세한 프로세스에 대해서는 아래의 실시예에서 설명한다.
103: 평활화 및/또는 가중치 부여된 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성한다.
인코딩단에서 평활화 및/또는 가중치 부여를 수행하는 경우, 제2 고대역 노이즈 인코딩 파라미터 및 미리 설정된 협대역 노이즈 인코딩 파라미터를 디코딩단에 전송하고, 디코딩단에서 고대역 노이즈 인코딩 파라미터 및 협대역 노이즈 인코딩 파라미터에 따라 배경 노이즈 신호를 생성한다.
디코딩단에서 평활화 및/또는 가중치 부여를 수행하는 경우, 디코딩단에서 인코딩단으로부터 신호 프레임을 수신하고, 신호 프레임의 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하며, 제2 고대역 노이즈 인코딩 파라미터 및 미리 설정된 협대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호 및 협대역 배경 노이즈 신호를 생성한다.
이해하기 쉽도록, 이하에서는 상이한 노이즈 처리단에 대해 상세하게 설명한다.
도 2를 참조하면, 도 2에 나타낸 방법에서는 인코딩단에서 노이즈 처리를 수행한다. 본 발명의 제2 실시예에 따른 배경 노이즈 생성 방법은 다음의 단계들을 포함한다:
201: 신호 프레임을 취득한다.
본 실시예에서는, 인코딩단에서 노이즈 처리를 수행하기 때문에, 인코딩단에서 신호 프레임을 취득한다.
각각의 신호 프레임에 대해, 인코딩단에서 쿼드러처 미러 필터뱅크(Quadrature Mirror Filterbank, QMF) 로 입력 배경 노이즈 신호 를 2개의 부대역으로 필터링하여 저부대역 신호 와 고부대역 신호 를 출력한다.
먼저, 저부대역 신호 를 729B와 유사한 인코딩 방식으로 인코딩한다. DTX의 결정이 "전송"인 경우, 729.1의 프레임 길이와 조정하기 위해, 현재 슈퍼 프레임(super-frame)의 첫 번째 10ms를 인코딩하여, 협대역 노이즈 인코딩 파라미터 를 취득하며, Ω는 주파수 스펙트럼(frequency spectrum) 파라미터이고, E는 여기 에너지(excitation energy) 파라미터이다.
다음에, DTX의 결정에 따라 시간 도메인 대역폭 확장(Time-Domain BandWidth Extension, TDBWE) 인코더로 고부대역 신호 를 인코딩한다. 고대역 노이즈 인코딩 파라미터가 취득되고, 즉 이고, 는 시간 포락 파라미터이며, 는 주파수 포락 파라미터이다.
202: 취득된 신호 프레임이 노이즈 프레임인지를 결정하고, 노이즈 프레임인 경우, 단계 204를 수행하며, 노이즈 프레임이 아니면 단계 203을 수행한다.
203: 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 평활화를 수행한 다음, 단계 206을 수행한다.
인코딩단에서 취득된 신호 프레임이 음성 프레임인 경우, 음성 프레임의 고대역 음성 인코딩 프레임에 따라 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행한다. 상세 프로세스는 다음과 같다:
음성 프레임의 고대역 음성 인코딩 파라미터 를 사용하여 제2 고대역 노이즈 인코딩 파라미터 에 대해 장기 평활화(long-term smoothing)를 수행하며, 는 시간 포락 파라미터이고, 는 주파수 포락 파라미터인 경우:
β는 제2 평활화 파라미터이고, 그 값은 0.5, 또는 실제 필요에 따라 결정될 수 있다. 유의할 것은, 상기한 평활화를 시간 포락 파라미터 각각에 대해, 그리고 주파수 포락 파라미터 각각에 대해 수행한다는 것이다, 즉:
204: 노이즈 프레임의 주파수 포락 파라미터에 대해 가중치 부여를 수행한다.
인코딩단에서 취득된 신호 프레임이 노이즈 프레임인 경우, 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해 가중치를 부여한다, 즉 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터에 대해 가중치를 부여한다:
가중치 부여 파라미터는 이다. j는 주파수 값을 나타내며, j는 0에서 11까지의 정수값이다. j값이 클수록, 주파수값이 크며, 가중치를 부여하는 목적은 고주파 부분의 주파수 성분을 감쇠시키는 것이다. 유의할 것은, 상기 가중치 부여 파라미터는 단지 예일 뿐이고, 실제 상황에 따라 변경될 수 있으나, 가중치 부여 파라미터는 주파수값에 역비례하여야 한다는 것이다.
상기 i와 j의 값은 예에 불과하다는 것에 유의하기 바란다. 실제 애플리케이션에서, i와 j의 값은 변경될 수 있으며, 어떤 특정한 값으로 한정되지 않는다.
205: 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행한다.
단계 204에서 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터에 대해 가중치를 부여한 후, 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터 및 시간 포락 파라미터에 대해 평활화를 수행하여, 최종적으로 단계 205에서 제2 고대역 노이즈 인코딩 파라미터를 취득할 수 있다. 상세한 프로세스는 다음과 같다:
206: 제2 고대역 노이즈 인코딩 파라미터 및 미리 설정된 협대역 노이즈 인코딩 파라미터에 따라 신호 프레임을 조립하고, 단계 201을 반복 수행한다.
제2 고대역 노이즈 인코딩 파라미터를 취득한 후, 제2 고대역 노이즈 인코딩 파라미터 및 협대역 노이즈 인코딩 파라미터에 따라 노이즈가 없는 프레임을 조립한다.
207: 디코딩단에 신호 프레임을 전송한다.
DTX의 현재 결정이 "전송"인 경우, 제2 고대역 노이즈 인코딩 파라미터 및 협대역 노이즈 인코딩 파라미터에 따라 SID 프레임를 조립하여 디코딩단에 전송하고; 그렇지 않으면, 아무런 데이터가 없는 NODATA 프레임을 디코딩단에 전송한다.
208: 디코딩단에서 디코딩을 수행하여 배경 노이즈 신호를 생성한다.
디코딩단에서 인코딩단으로부터 신호 프레임을 수신한 후, 신호 프레임을 디코딩한다. 상세한 프로세스는 다음을 포함한다:
수신된 인코딩된 비트스트림에 협대역의 인코딩 파라미터만 존재하는 경우, 729B와 유사한 디코딩 방식으로 디코딩을 수행하며, 첫 번째 10ms 프레임에는 인코딩 파라미터가 사용되고, 두 번째 10ms 프레임은 NODATA 프레임으로 처리된다.
수신된 인코딩된 비트스트림에 광대역 인코딩 파라미터가 존재하는 경우, 디코딩 프로세스는 다음과 같다:
수신된 프레임이 SID 프레임인 경우, 디코딩을 통해 협대역 노이즈 인코딩 파라미터 및 제2 고대역 노이즈 인코딩 파라미터 를 취득한다. 협대역 배경 노이즈 은 729B와 유사한 CNG 방식을 사용하여 협대역 노이즈 인코딩 파라미터로부터 취득되고, 고대역 배경 노이즈 는 729.1의 TDBWE 디코딩 방식을 사용하여 제2 고대역 노이즈 인코딩 파라미터로부터 취득된다.
수신된 프레임이 NODATA 프레임인 경우, 729B와 유사한 디코딩 방식을 사용하여 협대역 노이즈 인코딩 파라미터를 취득한 다음, 729B와 유사한 CNG 방식을 사용하여 협대역 배경 노이즈 를 취득한다. 이전의 SID 프레임의 고대역 노이즈 인코딩 파라미터가 현재 프레임의 고대역 노이즈 인코딩 파라미터로 사용된다:
최종적으로, 취득된 고부대역 신호 와 저부대역 신호 를 729.1에서 사용된 QMF로 결합하여 최종 광대역 배경 노이즈 신호를 취득한다. 따라서, 디코딩단에서의 이러한 CNG 조작에 의해, 최종 광대역 배경 노이즈 신호를 취득한다.
상기 프로세스에서, 단계 203은 선택적인 단계이다, 즉 가중치 부여 및/또는 평활화는 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해서만 수행될 수 있다. 또한 단계 203을 수행함으로써 에 음성 프레임의 정보를 포함시킬 수 있으므로, 복원된 신호는 더욱 매끈하고 연속적일 수 있다.
또, 단계 204와 단계 205는 고정된 실행 순서가 없다, 즉 단계 205 이전에 단계 204를 실행할 수 있거나, 또는 단계 204를 수행하기 이전에 단계 205를 수행할 수 있으며, 한정되어 있지 않다.
상기 실시예에서는, 인코딩단에서 고대역 노이즈 인코딩 파라미터에 대한 평활화를 수행 및/또는 노이즈 프레임의 주파수 포락에 대해 가중치 부여를 수행한 후, 제2 고대역 노이즈 인코딩 파라미터를 취득한다. 이렇게 하여 복구된 배경 노이즈의 연속성이 향상되므로, SID 프레임간의 차는 비교적 작으며, "블록" 효과가 효과적으로 제거되고 사용자의 체험을 제고할 수 있다.
다음에, 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행할 수 있기 때문에, 제2 고대역 노이즈 인코딩 파라미터 에 음성 프레임의 정보를 포함시킬 수 있고, 이로써 복원된 신호가 더욱 매끈하고 연속적이 될 수 있다.
이상에서는 고대역 노이즈 인코딩 파라미터를 인코딩단에서 처리하는 경우를 소개하였다. 이하에서는 고대역 노이즈 인코딩 파라미터를 디코딩단에서 처리하는 경우를 소개한다. 도 3을 참조하면, 본 발명의 제3 실시예에 따른 배경 노이즈 생성 방법은 다음의 단계들을 포함한다:
301: 인코딩단으로부터 신호 프레임을 수신한다.
신호 프레임은 디코딩단에서 인코딩단으로부터 수신된다. 신호 프레임을 생성하는 프로세스는 다음을 포함한다:
두 번째로, 저부대역 신호 를 729B와 유사한 인코딩 방식으로 인코딩하고, DTX의 결정이 "전송"인 경우, 현재 슈퍼 프레임의 첫 번째 10ms를 인코딩하여, 협대역 노이즈 인코딩 파라미터 를 취득하며, 여기서 Ω는 주파수 스펙트럼 파라미터이고, E는 여기 에너지 파라미터이다.
세 번째로, DTX의 결정에 따라 TDBWE 인코더로 고부대역 신호 를 인코딩한다. 고대역 노이즈 인코딩 파라미터가 취득되고, 즉 이며, 여기서 는 시간 포락 파라미터이고, 는 주파수 포락 파라미터이다. j값이 클수록, 대응하는 주파수가 더 높다.
끝으로, 두 부대역의 인코딩 파라미터를 노이즈없는 프레임으로 결합한다. DTX의 현재 결정이 "전송"인 경우, 고대역 노이즈 인코딩 파라미터와 협대역 노이즈 인코딩 파라미터를 SID 프레임으로 조립하고 그 SID 프레임를 디코딩단에 전송하고, 그렇지 않으면, 아무런 데이터가 없는 NODATA 프레임을 디코딩단에 전송한다.
302: 신호 프레임이 노이즈 프레임인지를 결정한다. 신호 프레임이 노이즈 프레임인 경우, 단계 304를 수행하며; 노이즈 프레임이 아닌 경우, 단계 303을 수행한다.
303: 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 평활화를 수행한 다음, 단계 306을 수행한다.
인코딩단에서 취득된 신호 프레임이 음성 프레임인 경우, 음성 프레임의 고대역 음성 인코딩 프레임에 따라 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행한다. 상세 프로세스는 다음과 같다:
음성 프레임의 고대역 음성 인코딩 파라미터 를 사용하여 제2 고대역 노이즈 인코딩 파라미터 에 대해 장기 평활화(long-term smoothing)를 수행하며, 여기서 는 시간 포락 파라미터이고, 는 주파수 포락 파라미터이다.
β는 제2 평활화 파라미터이고, 그 값은 0.5, 또는 실제 필요에 따라 결정될 수 있다. 유의할 것은, 상기 평활화를 시간 포락 파라미터 각각에 대해, 그리고 주파수 포락 파라미터 각각에 대해 수행한다는 것이다, 즉:
304: 노이즈 프레임의 주파수 도메인 포락 파라미터에 가중치를 부여한다.
디코딩단에서 취득된 신호 프레임이 노이즈 프레임인 경우, 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해 가중치를 부여한다, 즉 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터에 대해 가중치를 부여한다. 상세 프로세스는 다음과 같다:
가중치 부여 파라미터는 이다. 위의 j는 주파수 값을 나타내며, 0에서 11까지의 정수값일 수 있다. j값이 클수록, 주파수값이 더 크다. 가중치를 부여하는 목적은 고주파 부분의 주파수 성분을 감쇠시키는 것이다. 유의할 것은, 상기 가중치 부여 파라미터는 단지 예일 뿐이고, 실제 상황에 따라 변경될 수 있으나, 가중치 부여 파라미터는 주파수값에 역비례하여야 한다는 것이다.
상기 i와 j의 값은 예에 불과하다는 것에 유의하기 바란다. 실제 애플리케이션에서, i와 j의 값은 변경될 수 있으며, 어떤 특정한 값으로 한정되지 않는다.
305: 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행한다.
단계 304에서 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터에 대해 가중치를 부여한 후, 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터 및 시간 포락 파라미터에 대해 평활화를 수행하여, 제2 고대역 노이즈 인코딩 파라미터를 취득할 필요가 있다. 상세 프로세스는 다음과 같다:
α는 제1 평활화 파라미터로 값이 0.75이다. 제1 평활화 파라미터의 값은 실제 상황에 따라 조정될 수 있으나, 제2 평활화 파라미터의 값보다 커야 한다. 유의할 것은, 상기 평활화는 시간 포락 각각에 대해, 그리고 주파수 포락 각각에 대해 수행된다는 것이다, 즉:
306: 제2 고대역 노이즈 인코딩 파라미터 및 미리 설정된 협대역 노이즈 인코딩 파라미터에 따라 신호 프레임을 조립하고, 단계 301을 반복 수행한다.
본 실시예에서는, 729B와 유사한 CNG 방식으로 협대역 노이즈 인코딩 파라미터로부터 협대역 배경 노이즈 를 취득하고, 729.1의 TDBWE 디코딩 방식을 사용하여 제2 고대역 노이즈 인코딩 파라미터로부터 고부대역 배경 노이즈 를 취득한다.
수신된 프레임이 NODATA 프레임인 경우, 729B와 유사한 디코딩 방식을 사용하여 협대역 노이즈 인코딩 파라미터를 취득한 다음, 729B와 유사한 CNG 방식을 사용하여 협대역 배경 노이즈 을 취득한다. 이전의 SID 프레임의 고대역 노이즈 인코딩 파라미터가 고대역 노이즈 인코딩 파라미터로 사용된다:
307: 디코딩단에서 디코딩을 수행하여 배경 노이즈 신호를 생성한다.
취득된 고부대역 신호 와 저부대역 신호 를 729.1에서 사용된 QMF로 결합하여 최종 광대역 배경 노이즈 신호를 취득한다. 이렇게 하여, 디코딩단에서의 이러한 CNG 조작에 의해, 최종 광대역 배경 노이즈 신호를 취득한다.
상기 프로세스에서, 단계 303은 선택적인 단계이다, 즉 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해서만 가중치 부여 및/또는 평활화를 수행하여, 제2 고대역 노이즈 인코딩 파라미터 를 취득할 수 있다. 또한 단계 303을 수행함으로써 에 음성 프레임의 정보를 포함시킬 수 있으므로, 복원된 신호는 더욱 매끈하고 연속적이 될 수 있다.
또, 단계 304와 단계 305는 고정된 실행 순서가 없다, 즉 단계 305 이전에 단계 304를 실행할 수 있거나, 또는 단계 304를 수행하기 이전에 단계 305를 수행할 수 있으며, 한정되어 있지 않다.
상기 실시예에서는, 디코딩단에서 고대역 노이즈 인코딩 파라미터에 대한 평활화를 수행하고/하거나 노이즈 프레임의 주파수 포락에 대해 가중치 부여를 수행한 후, 제2 고대역 노이즈 인코딩 파라미터를 취득한다. 이렇게 하여 복구된 배경 노이즈의 연속성이 향상되므로, SID 프레임간의 차는 비교적 작으며, 이로써 "블록" 효과가 효과적으로 제거되어 사용자의 체험을 제고할 수 있다.
다음에, 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행할 수 있기 때문에, 제2 고대역 노이즈 인코딩 파라미터 에 음성 프레임의 정보를 포함시킬 수 있고, 이로써 복원된 신호가 더욱 매끈하고 연속적으로 될 수 있다.
도 4를 참조하면, 본 발명의 실시예에 따른 노이즈 처리 장치는,
신호 프레임를 취득하도록 구성된 신호 프레임 취득 유닛(401);
신호 프레임으로부터 고대역 인코딩 파라미터를 취득하도록 구성된 파라미터 취득 유닛(402); 및
취득된 신호 프레임이 노이즈 프레임인 경우, 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된 파라미터 처리 유닛(403)을 포함한다.
본 실시예에서, 파라미터 처리 유닛(403)은 취득된 신호 프레임이 음성 프레임인 경우, 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하도록 구성된다.
본 실시예에서, 노이즈 처리 장치는, 디코딩단에 제2 고대역 노이즈 인코딩 파라미터를 전송하도록 구성된 파라미터 전송 유닛(404)을 더 포함할 수 있다.
노이즈 처리 장치가 인코딩단에 있는 경우, 이 노이즈 처리 장치는 파라미터 전송 유닛(404)을 포함한다.
본 실시예에서, 노이즈 처리 장치는, 제2 고대역 노이즈 인코딩 파라미터따라 고대역 배경 노이즈 신호를 생성하도록 구성된 노이즈 생성 유닛(405)을 더 포함할 수 있다.
노이즈 처리 장치가 디코딩단에 있는 경우, 이 노이즈 처리 장치는 노이즈 생성 유닛(405)으 포함할 수 있다.
본 실시예에서, 파라미터 처리 유닛(403)은 다음의 유닛 중 적어도 하나를 포함한다:
고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터와 미리 설정된 가중치 부여 파라미터를 승산하여 가중치가 부여된 주파수 포락 파라미터를 취득하도록 구성된 가중치 부여 유닛(4031), 여기서 가중치 부여 파라미터는 주파수 포락 파라미터의 주파수값에 역비례한다;
미리 설정된 제1 평활화 파라미터 및 고대역 인코딩 파라미터를 사용하여 아래의 식에 따라 계산하여 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된 평활화 유닛(4032):
상기 평활화는 노이즈 프레임의 고대역 노이즈 인코딩 파라미터에 대해 수행되거나;
또는
평활화 유닛(4032)이 미리 설정된 제2 평활화 파라미터 및 고대역 음성 인코딩 파라미터를 사용하여 아래의 식에 따라 계산하여 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된다:
상기 평활화는 음성 프레임의 고대역 노이즈 인코딩 파라미터에 대해 수행된다.
각 유닛의 세부 프로세스는 배경 노이즈 생성 방법에 대한 상기 실시예에서와 유사하므로, 여기서는 설명하지 않는다.
본 발명의 실시예에서는, 신호 프레임을 취득한 후, 그 신호 프레임이 노이즈 프레임인 경우, 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터을 취득하고, 노이즈 프레임에 따라 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행한다, 즉 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하고/하거나 주파수 포락에 대해 가중치 부여를 수행한 후, 복원된 배경 노이즈의 연속성이 향상되므로, SID 프레임간의 차는 비교적 작으며, 이로써 "블록" 효과가 효과적으로 제거되어, 사용자의 체험을 제고할 수 있다.
해당 기술분야의 당업자라면 방법에 대한 상기 실시예들의 전부 또는 일부를 관련 하드웨어에서 실행되는 프로그램 명령어로 구현할 수 있다는 것을 알 수 있다. 상기 프로그램은 컴퓨터로 판독 가능한 저장 매체에 저장될 수 있다. 상기 프로그램은, 실행될 때,
취득된 신호 프레임이 노이즈 프레임인 경우, 상기 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터를 취득하는 단계;
상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계; 및
상기 제2 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성하는 단계를 포함한다.
상기 저장 매체는 ROM(Read Only Memory), 자기 디스크 또는 광 디스크 등을 포함할 수 있다.
이상에서는 본 발명에 따른 배경 노이즈 생성 방법 및 노이즈 처리 장치에 대한 상세하게 설명하였다. 해당 기술분야의 당업자는, 본 발명의 원리를 벗어 나지 않으면서 특정 실시예들을 다양하게 변경할 수 있다. 따라서, 이상의 설명 내용은 본 발명의 범위를 한정하는 것으로 해석되어서는 안된다.
Claims (10)
- 취득된 신호 프레임이 노이즈 프레임인 경우, 상기 노이즈 프레임으로부터 고대역 노이즈 인코딩 파라미터를 취득하는 단계;
상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계; 및
상기 제2 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성하는 단계
를 포함하고,
상기 고대역 노이즈 인코딩 파라미터는 시간 포락 파라미터와 주파수 포락 파라미터를 포함하고;
상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계는,
상기 주파수 포락 파라미터와 미리 설정된 가중치 부여 파라미터를 승산하여 가중치가 부여된 주파수 포락 파라미터를 취득하는 단계; 및
상기 가중된 주파수 포락 파라미터를 포함하는 고대역 노이즈 인코딩 파라미터를 상기 제2 고대역 노이즈 인코딩 파라미터로 사용하는 단계를 포함하고,
상기 가중치 부여 파라미터는 상기 주파수 포락 파라미터의 주파수값에 역비례하며,
상기 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계는,
미리 설정된 제1 평활화 파라미터 및 상기 고대역 인코딩 파라미터를 사용하여 아래의 식에 따라 계산하여 상기 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계를 더 포함하는, 배경 노이즈 생성 방법:
위 식에서, 는 상기 제2 고대역 노이즈 인코딩 파라미터이고, α는 상기 제1 평활화 파라미터이며, 는 현재 고대역 노이즈 인코딩 파라미터이다. - 제1항에 있어서,
상기 취득된 신호 프레임이 음성 프레임인 경우, 상기 음성 프레임의 고대역 음성 인코딩 프레임를 취득하고, 상기 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 상기 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하는 단계를 더 포함하는 배경 노이즈 생성 방법. - 제1항 또는 제3항에 있어서,
상기 신호 프레임은 인코딩단 또는 디코딩단에서 취득되며;
상기 신호 프레임이 상기 인코딩단에서 취득되는 경우, 상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하는 단계 이후에,
상기 제2 고대역 노이즈 인코딩 파라미터를 포함하는 신호 프레임을 상기 디코딩단에 전송하는 단계를 더 포함하는 배경 노이즈 생성 방법. - 신호 프레임를 취득하도록 구성된 신호 프레임 취득 유닛;
상기 신호 프레임으로부터 고대역 인코딩 파라미터를 취득하도록 구성되고, 상기 신호 프레임이 노이즈 프레임인 경우 상기 고대역 인코딩 파라미터는 고대역 노이즈 인코딩 파라미터인, 파라미터 취득 유닛;
상기 취득된 신호 프레임이 노이즈 프레임인 경우, 상기 고대역 노이즈 인코딩 파라미터에 대해 가중치 부여 및/또는 평활화를 수행하여 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된 파라미터 처리 유닛; 및
상기 제2 고대역 노이즈 인코딩 파라미터에 따라 고대역 배경 노이즈 신호를 생성하도록 구성된 노이즈 생성 유닛
을 포함하고,
상기 파라미터 처리 유닛은 아래의 유닛 중 적어도 하나를 포함하는 노이즈 처리 장치:
상기 고대역 노이즈 인코딩 파라미터의 주파수 포락 파라미터와 미리 설정된 가중치 부여 파라미터를 승산하여 가중치가 부여된 주파수 포락 파라미터를 취득하도록 구성되고, 상기 가중치 부여 파라미터는 상기 주파수 포락 파라미터의 주파수값에 역비례하는, 가중치 부여 유닛;
미리 설정된 제1 평활화 파라미터 및 상기 고대역 노이즈 인코딩 파라미터를 사용하여 아래의 식에 따라 계산하여 상기 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된 평활화 유닛:
위 식에서, 는 상기 제2 고대역 노이즈 인코딩 파라미터이고, α는 상기 제1 평활화 파라미터이며, 는 현재 고대역 노이즈 인코딩 파라미터이다;
또는 상기 평활화 유닛은 미리 설정된 제2 평활화 파라미터 및 상기 고대역 음성 인코딩 파라미터를 사용하여 아래의 식에 따라 계산하여 상기 제2 고대역 노이즈 인코딩 파라미터를 취득하도록 구성된다:
위 식에서, 는 제2 고대역 노이즈 인코딩 파라미터이고, β는 제2 평활화 파라미터이며, 는 현재 고대역 음성 인코딩 파라미터이다. - 제6항에 있어서,
상기 신호 프레임이 음성 프레임인 경우, 상기 파라미터 취득 유닛에 의해 취득된 상기 고대역 인코딩 파라미터는 고대역 음성 인코딩 파라미터이고;
상가 파라미터 처리 유닛은 또한, 상기 취득된 신호 프레임이 음성 프레임인 경우, 상기 음성 프레임의 고대역 음성 인코딩 파라미터에 따라 상기 제2 고대역 노이즈 인코딩 파라미터에 대해 평활화를 수행하도록 구성되는, 노이즈 처리 장치. - 제6항 또는 제7항에 있어서,
상기 제2 고대역 노이즈 인코딩 파라미터를 디코딩단으로 전송하도록 구성된 파리미터 전송 유닛을 더 포함하는 노이즈 처리 장치. - 삭제
- 삭제
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008100851770A CN101483495B (zh) | 2008-03-20 | 2008-03-20 | 一种背景噪声生成方法以及噪声处理装置 |
CN200810085177.0 | 2008-03-20 | ||
PCT/CN2009/070840 WO2009115036A1 (zh) | 2008-03-20 | 2009-03-17 | 一种背景噪声生成方法以及噪声处理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100133437A KR20100133437A (ko) | 2010-12-21 |
KR101248535B1 true KR101248535B1 (ko) | 2013-04-03 |
Family
ID=40880445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020107023132A KR101248535B1 (ko) | 2008-03-20 | 2009-03-17 | 배경 노이즈 생성 방법 및 노이즈 처리 장치 |
Country Status (7)
Country | Link |
---|---|
US (1) | US8494846B2 (ko) |
EP (1) | EP2254111B1 (ko) |
JP (1) | JP5143949B2 (ko) |
KR (1) | KR101248535B1 (ko) |
CN (1) | CN101483495B (ko) |
ES (1) | ES2557898T3 (ko) |
WO (1) | WO2009115036A1 (ko) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2630379C1 (ru) * | 2011-02-18 | 2017-09-07 | Нтт Докомо, Инк. | Декодер речи, кодер речи, способ декодирования речи, способ кодирования речи, программа декодирования речи и программа кодирования речи |
US20140006019A1 (en) * | 2011-03-18 | 2014-01-02 | Nokia Corporation | Apparatus for audio signal processing |
CN103187065B (zh) * | 2011-12-30 | 2015-12-16 | 华为技术有限公司 | 音频数据的处理方法、装置和系统 |
BR112015014217B1 (pt) * | 2012-12-21 | 2021-11-03 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V | Adição de ruído de conforto para modelagem do ruído de fundo em baixas taxas de bits |
EP2980790A1 (en) * | 2014-07-28 | 2016-02-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for comfort noise generation mode selection |
CN105721656B (zh) * | 2016-03-17 | 2018-10-12 | 北京小米移动软件有限公司 | 背景噪声生成方法及装置 |
CN112767959B (zh) * | 2020-12-31 | 2023-10-17 | 恒安嘉新(北京)科技股份公司 | 语音增强方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0946233A (ja) * | 1995-07-31 | 1997-02-14 | Kokusai Electric Co Ltd | 音声符号化方法とその装置、音声復号方法とその装置 |
JP2002196799A (ja) * | 2000-12-26 | 2002-07-12 | Mitsubishi Electric Corp | 音声符号化装置及び音声符号化方法 |
WO2007140724A1 (fr) * | 2006-06-05 | 2007-12-13 | Huawei Technologies Co., Ltd. | procédé et appareil pour transmettre et recevoir un bruit de fond et système de compression de silence |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1149534C (zh) * | 1998-12-07 | 2004-05-12 | 三菱电机株式会社 | 声音解码装置和声音解码方法 |
US6324505B1 (en) * | 1999-07-19 | 2001-11-27 | Qualcomm Incorporated | Amplitude quantization scheme for low-bit-rate speech coders |
CA2722110C (en) * | 1999-08-23 | 2014-04-08 | Panasonic Corporation | Apparatus and method for speech coding |
US6615169B1 (en) * | 2000-10-18 | 2003-09-02 | Nokia Corporation | High frequency enhancement layer coding in wideband speech codec |
US7353168B2 (en) * | 2001-10-03 | 2008-04-01 | Broadcom Corporation | Method and apparatus to eliminate discontinuities in adaptively filtered signals |
JP4089347B2 (ja) * | 2002-08-21 | 2008-05-28 | 沖電気工業株式会社 | 音声復号装置 |
WO2004084180A2 (en) * | 2003-03-15 | 2004-09-30 | Mindspeed Technologies, Inc. | Voicing index controls for celp speech coding |
EP1768106B8 (en) * | 2004-07-23 | 2017-07-19 | III Holdings 12, LLC | Audio encoding device and audio encoding method |
US7725764B2 (en) * | 2006-08-04 | 2010-05-25 | Tsx Inc. | Failover system and method |
JP5061111B2 (ja) * | 2006-09-15 | 2012-10-31 | パナソニック株式会社 | 音声符号化装置および音声符号化方法 |
US8032359B2 (en) * | 2007-02-14 | 2011-10-04 | Mindspeed Technologies, Inc. | Embedded silence and background noise compression |
CN101627426B (zh) * | 2007-03-05 | 2013-03-13 | 艾利森电话股份有限公司 | 用于控制稳态背景噪声的平滑的方法和设备 |
DE102008009719A1 (de) * | 2008-02-19 | 2009-08-20 | Siemens Enterprise Communications Gmbh & Co. Kg | Verfahren und Mittel zur Enkodierung von Hintergrundrauschinformationen |
-
2008
- 2008-03-20 CN CN2008100851770A patent/CN101483495B/zh active Active
-
2009
- 2009-03-17 KR KR1020107023132A patent/KR101248535B1/ko active IP Right Grant
- 2009-03-17 EP EP09721909.1A patent/EP2254111B1/en active Active
- 2009-03-17 WO PCT/CN2009/070840 patent/WO2009115036A1/zh active Application Filing
- 2009-03-17 ES ES09721909.1T patent/ES2557898T3/es active Active
- 2009-03-17 JP JP2011500033A patent/JP5143949B2/ja active Active
-
2010
- 2010-09-20 US US12/886,159 patent/US8494846B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0946233A (ja) * | 1995-07-31 | 1997-02-14 | Kokusai Electric Co Ltd | 音声符号化方法とその装置、音声復号方法とその装置 |
JP2002196799A (ja) * | 2000-12-26 | 2002-07-12 | Mitsubishi Electric Corp | 音声符号化装置及び音声符号化方法 |
WO2007140724A1 (fr) * | 2006-06-05 | 2007-12-13 | Huawei Technologies Co., Ltd. | procédé et appareil pour transmettre et recevoir un bruit de fond et système de compression de silence |
Also Published As
Publication number | Publication date |
---|---|
CN101483495A (zh) | 2009-07-15 |
EP2254111A4 (en) | 2011-04-06 |
WO2009115036A1 (zh) | 2009-09-24 |
US20110010167A1 (en) | 2011-01-13 |
US8494846B2 (en) | 2013-07-23 |
CN101483495B (zh) | 2012-02-15 |
KR20100133437A (ko) | 2010-12-21 |
EP2254111A1 (en) | 2010-11-24 |
JP2011514561A (ja) | 2011-05-06 |
ES2557898T3 (es) | 2016-01-29 |
EP2254111B1 (en) | 2015-10-28 |
JP5143949B2 (ja) | 2013-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6937877B2 (ja) | 信号符号化及び復号化方法及び装置 | |
JP5547081B2 (ja) | 音声復号化方法及び装置 | |
US11727946B2 (en) | Method, apparatus, and system for processing audio data | |
KR101248535B1 (ko) | 배경 노이즈 생성 방법 및 노이즈 처리 장치 | |
RU2469420C2 (ru) | Способ и устройство для формирования шумов | |
US20190057704A1 (en) | Noise Signal Processing Method, Noise Signal Generation Method, Encoder, Decoder, and Encoding and Decoding System | |
KR102380487B1 (ko) | 오디오 신호 디코더에서의 개선된 주파수 대역 확장 | |
RU2622863C2 (ru) | Эффективное ослабление опережающего эха в цифровом звуковом сигнале | |
JP2015522847A (ja) | デジタル音声信号における効果的なプレエコー減衰 | |
US20110125507A1 (en) | Method and System for Frequency Domain Postfiltering of Encoded Audio Data in a Decoder | |
JP7008756B2 (ja) | デジタルオーディオ信号におけるプレエコーを識別し、減衰させる方法及び装置 | |
KR101655913B1 (ko) | 디지털 오디오 신호에서의 프리-에코 감쇠 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160219 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170221 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180302 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190306 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20200218 Year of fee payment: 8 |