KR102033469B1 - 적응형 잡음제거기, 잡음제거 방법 - Google Patents

적응형 잡음제거기, 잡음제거 방법 Download PDF

Info

Publication number
KR102033469B1
KR102033469B1 KR1020160072363A KR20160072363A KR102033469B1 KR 102033469 B1 KR102033469 B1 KR 102033469B1 KR 1020160072363 A KR1020160072363 A KR 1020160072363A KR 20160072363 A KR20160072363 A KR 20160072363A KR 102033469 B1 KR102033469 B1 KR 102033469B1
Authority
KR
South Korea
Prior art keywords
noise
wavelet
binary mask
equation
subbands
Prior art date
Application number
KR1020160072363A
Other languages
English (en)
Other versions
KR20170140461A (ko
Inventor
조진호
김명남
이정현
이기현
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020160072363A priority Critical patent/KR102033469B1/ko
Publication of KR20170140461A publication Critical patent/KR20170140461A/ko
Application granted granted Critical
Publication of KR102033469B1 publication Critical patent/KR102033469B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Noise Elimination (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

적응형 잡음제거기 및 잡음제거 방법이 개시된다. 본 발명의 실시 예에 따른 적응형 잡음제거기는 음성신호를 시간-주파수 2차원 영역의 정보를 갖는 다수의 웨이블릿 서브밴드로 분해하는 웨이블릿 패킷 분해부; 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 산출하고, 에너지 편차를 이용하여 다수의 웨이블릿 서브밴드 각각의 2진 마스크 특징 벡터를 산출하고, 2진 마스크 특징 벡터를 이용하여 잡음 제거를 위한 잡음 참고신호를 추출하는 참고신호 추출부; 및 잡음 참고신호에 기초하여 잡음제거 계수를 갱신하여 음성신호의 잡음을 제거하는 잡음 제거부를 포함한다. 본 발명의 실시 예에 의하면, 신호대잡음비가 낮은 환경에서 음성신호 제거를 최소화하면서 높은 음성 향상 효과를 얻을 수 있다.

Description

적응형 잡음제거기, 잡음제거 방법{ADAPTIVE NOISE CANCELLER AND METHOD OF CANCELLING NOISE}
본 발명은 적응형 잡음제거기 및 잡음제거 방법에 관한 것으로, 보다 상세하게는 음성신호에서 잡음을 제거하는 적응형 잡음제거기 및 잡음제거 방법에 관한 것이다.
최근 멀티미디어 기기의 발달과 함께 음성 신호처리에 관한 많은 연구가 이루어지고 있다. 특히 음성 신호처리 시스템에서 환경 잡음으로 인한 시스템 성능의 저하 현상은 해결되어야 할 중요한 문제로 인식되고 있다. 따라서 잡음이 시스템에 미치는 영향을 줄이기 위해 다양한 잡음 감쇄 기법과 음성향상 기법이 연구되어 왔으며 다양한 음성 신호처리 분야에 사용되고 있다.
음성향상은 음성신호가 주변 잡음에 의해 오염되어 입력되었을 때 음성 신호에서 잡음을 제거하고 음성을 강화하여 음성 신호를 향상시키는 기법으로 극한의 작업환경이나 군사 작전 중에 사용되는 음성 통신 기기의 통신 품질을 향상시키거나 여러 가지 스마트 장비나 의료기기에서 인간-기기 상호작용 시 음성 인식이나 화자 인식 성능을 높일 수 있다. 또한 헤드셋과 디지털 보청기와 같은 음향기기에 사용하여 배경 잡음을 억제하고 음질을 향상시키기 위해 사용될 수 있다.
기존의 고전적인 음성향상 알고리즘은 대부분 주파수 영역에서의 잡음 제거 방법, 통계적 모델 (statistic model)에 기반한 필터, 부분공간(subspace)을 이용한 방법 등을 사용하였다. 주파수 영역에서의 잡음 제거 방법으로는 주파수 차감법(spectral subtraction)이 있고 통계적 모델에 기반한 방법으로는 Wiener 필터가 있으며, 부분공간을 이용한 방법으로는 마스크 필터링(mask filtering) 방법이 있다. 주파수 차감법은 푸리에 변환을 이용해 변환된 주파수 영역에서 잡음의 스펙트럼을 추정하여 제거하는 방법으로 우수한 잡음 제거 능력이 있지만 음성과 비슷한 주파수 특성을 가진 잡음에 대해서는 좋은 성능을 보여주지 못하고 위상 검출 부분에서 어려움을 보이는 단점이 있다. 부분공간을 이용한 방법은 높은 잡음 제거 성능을 가졌지만 음성과 비슷한 특징을 가지거나 시간에 따라 통계적 특성이 변하는 불안정한(unstable) 잡음에 대해서는 성능 저하가 일어나는 문제점을 가지고 있다.
Wiener 필터는 잡음 참고신호(reference signal)와 오차의 통계적 모델에 기반하여 원하는 신호를 추정하고 음성 신호를 향상하는 방법으로 잡음 환경에 맞춰 적응하여 잡음을 제거하는 적응형 잡음 제거기에 널리 사용되고 있다. 적응형 잡음 제거기는 음성향상 및 잡음제거 분야에 널리 사용되고 있으며 잡음제거와 음성향상에 좋은 성능을 보이지만 제거하기 위한 잡음 특성이 반영된 잡음 참고신호를 획득하기 위한 별도의 신호입력단이 필요하며 낮은 신호 대 잡음비(signal-to-noise ratio, SNR) 환경에서 성능 저하가 일어나는 문제점이 있다. 또한 다채널의 입력신호들로부터 획득한 참고신호나 선험적 신호 대 잡음비, 웨이블릿 문턱치 등을 이용해 추정한 잡음을 사용하므로, 기존의 방법은 여러 개의 채널을 요구하거나 높은 연산량을 가지는 단점이 있다.
본 발명은 신호대잡음비가 낮은 환경에서 음성신호 제거를 최소화하면서 음성 향상 효과를 극대화할 수 있는 적응형 잡음제거기 및 잡음제거 방법을 제공한다.
본 발명이 해결하고자 하는 과제는 이상에서 언급된 과제로 제한되지 않는다. 언급되지 않은 다른 기술적 과제들은 이하의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 측면에 따른 적응형 잡음제거기는 음성신호를 시간-주파수 2차원 영역의 정보를 갖는 다수의 웨이블릿 서브밴드로 분해하는 웨이블릿 패킷 분해부; 상기 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 산출하고, 상기 에너지 편차를 이용하여 상기 다수의 웨이블릿 서브밴드 각각의 2진 마스크 특징 벡터를 산출하고, 상기 다수의 웨이블릿 서브밴드 각각의 2진 마스크 특징 벡터를 이용하여 잡음 제거를 위한 잡음 참고신호를 추출하는 참고신호 추출부; 및 상기 잡음 참고신호에 기초하여 잡음제거 계수를 갱신하여 음성신호의 잡음을 제거하는 잡음 제거부를 포함한다.
상기 참고신호 추출부는: 상기 다수의 웨이블릿 서브밴드에 대한 시간 영역과 주파수 영역의 정보를 갖는 2차원 행렬의 웨이블릿 계수를 이용하여 상기 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 산출하는 에너지편차 산출부; 상기 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 이용하여 상기 다수의 웨이블릿 서브밴드 각각의 2진 마스크 특징 벡터를 산출하는 마스크 특징벡터 산출부; 상기 다수의 웨이블릿 서브밴드 별로 상기 2진 마스크 특징 벡터와 상기 웨이블릿 계수를 비교하여 시간 영역과 주파수 영역의 2차원에 대한 이진 마스크를 추출하는 이진 마스크 추출부; 및 상기 이진 마스크를 이용하여 상기 잡음 참고신호를 생성하는 잡음참고신호 생성부를 포함할 수 있다.
상기 2진 마스크 특징 벡터는 하기의 수식 1 및 수식 2에 따라 산출될 수 있다.
[수식 1]
Figure 112016055868395-pat00001
[수식 2]
Figure 112016055868395-pat00002
상기 수식 1 및 상기 수식 2에서,
Figure 112016055868395-pat00003
m번째 웨이블릿 서브밴드의 에너지 편차, N은 웨이블릿 서브밴드의 한 프레임의 샘플 개수, B는 웨이블릿 서브밴드의 개수,
Figure 112016055868395-pat00004
은 2진 마스크 특징 벡터이다.
상기 이진 마스크는 하기의 수식 3에 따라 산출될 수 있다.
[수식 3]
Figure 112016055868395-pat00005
상기 수식 3에서,
Figure 112016055868395-pat00006
m번째 웨이블릿 서브밴드의 k번째 이진 마스크,
Figure 112016055868395-pat00007
m번째 웨이블릿 서브밴드의 k번째 프레임의 웨이블릿 계수 평균값,
Figure 112016055868395-pat00008
은 2진 마스크 특징 벡터이다.
상기 잡음 참고신호는 하기의 수식 4에 따라 산출될 수 있다.
[수식 4]
Figure 112016055868395-pat00009
상기 수식 4에서,
Figure 112016055868395-pat00010
는 m번째 웨이블릿 서브밴드의 잡음 참고신호일 수 있다.
본 발명의 다른 측면에 따르면, 음성신호를 시간-주파수 2차원 영역의 정보를 갖는 다수의 웨이블릿 서브밴드로 분해하는 것; 상기 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 산출하는 것; 상기 다수의 웨이블릿 서브밴드 별로 산출된 에너지 편차를 이용하여 상기 다수의 웨이블릿 서브밴드 각각의 2진 마스크 특징 벡터를 산출하는 것; 상기 2진 마스크 특징 벡터를 이용하여 잡음 제거를 위한 잡음 참고신호를 추출하는 것; 그리고 상기 잡음 참고신호에 기초하여 잡음제거 계수를 갱신하여 음성신호의 잡음을 제거하는 것을 포함하는 적응형 잡음제거 방법이 제공된다.
상기 이진 마스크 특징을 산출하는 것은: 상기 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 이용하여 상기 다수의 웨이블릿 서브밴드 각각의 2진 마스크 특징 벡터를 산출하는 것; 그리고 상기 다수의 웨이블릿 서브밴드 별로 상기 2진 마스크 특징 벡터와 상기 웨이블릿 서브밴드의 웨이블릿 계수를 비교하여 시간 영역과 주파수 영역의 2차원에 대한 이진 마스크를 추출하는 것을 포함할 수 있다.
본 발명의 또 다른 측면에 따르면, 상기 적응형 잡음제거 방법을 실행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록매체가 제공된다.
본 발명의 실시 예에 의하면, 신호대잡음비가 낮은 환경에서 음성신호 제거를 최소화하면서 음성 향상 효과를 극대화할 수 있는 적응형 잡음제거기 및 잡음제거 방법이 제공된다.
본 발명의 효과는 상술한 효과들로 제한되지 않는다. 언급되지 않은 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 적응형 잡음제거기(100)의 구성도이다.
도 2는 본 발명의 일 실시 예에 따른 적응형 잡음제거기를 구성하는 웨이블릿 패킷 분해부에 대해 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 적응형 잡음제거기를 구성하는 이차원 이진 마스크 생성부(132)의 구성도이다.
도 4는 신호대잡음비 5dB의 크기로 백색잡음이 섞인 음성신호의 파형 예시도이다.
도 5는 본 발명의 실시 예에 따라 도 4의 음성신호를 웨이블릿 패킷 분해한 결과를 보여주는 그래프이다.
도 6은 본 발명의 실시 예에 따라 도 4의 음성신호로부터 추출된 2차원 이진 마스크를 보여주는 도면이다.
도 7은 본 발명의 실시 예에 따라 2차원 이진 마스크를 이용해 추정된 잡음 참고신호를 보여주는 도면이다.
도 8의 (a)는 잡음이 섞이지 않은 깨끗한 음성신호의 파형이며, (b)는 백색잡음이 SNR 5dB의 크기로 섞인 음성신호이다.
도 9는 본 발명의 실시 예에 따라 음성을 향상시킨 결과이다.
본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술하는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되지 않으며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 갖는다. 공지된 구성에 대한 일반적인 설명은 본 발명의 요지를 흐리지 않기 위해 생략될 수 있다. 본 발명의 도면에서 동일하거나 상응하는 구성에 대하여는 가급적 동일한 도면부호가 사용된다. 본 발명의 이해를 돕기 위하여, 도면에서 일부 구성은 다소 과장되거나 축소되어 도시될 수 있다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다", "가지다" 또는 "구비하다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서 전체에서 사용되는 '~부'는 적어도 하나의 기능이나 동작을 처리하는 단위로서, 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부'가 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함할 수 있다. 구성요소와 '~부'에서 제공하는 기능은 복수의 구성요소 및 '~부'들에 의해 분리되어 수행될 수도 있고, 다른 추가적인 구성요소와 통합될 수도 있다.
본 발명의 실시 예에 따른 적응형 잡음 제거기는 잡음 추정과정에서 한계를 보이는 기존의 적응형 잡음 제거기의 단점을 보완하기 위해, 인지적 웨이블릿 패킷 분해(perceptual wavelet packet decomposition, PWPD)를 이용해 분해된 음성신호에서 시간-주파수 2차원 이진 마스크 필터링을 통해 추출된 잡음 밴드를 참고신호로 활용하여 잡음을 제거한다.
본 발명은 기존의 단일채널 잡음제거 방법에서 어려움을 보였던 음성구간 내의 잡음을 효과적으로 추정하여 잡음이 강한 환경에서 높은 잡음제거 성능을 보이는 특징을 갖는다. 적응형 잡음제거기의 경우, 잡음제거를 위한 잡음 참고신호의 추출이 가장 중요하며, 특히 같은 구간 안에 음성과 잡음이 혼재되어 있는 음성구간 내의 잡음을 추정하는 기술이 매우 중요하다. 음성은 특정 주파수 밴드에서 강한 에너지를 나타내기 때문에 각각의 주파수 밴드의 에너지 편차를 계산하면 음성 밴드에서 큰 편차가 나타난다.
이러한 점을 고려하여, 적응형 잡음 제거기에서 요구되는 잡음 참고신호를 추출하기 위해 '시간-주파수 스케일' 영역을 함께 분석 가능한 웨이브렛 패킷 분해 방식을 이용하며, 분해된 웨이블릿 밴드들 각각의 편차에 기반하여 2차원 이진 마스크를 추출하며, 추출한 2차원 이진 마스크를 이용하여 '시간-주파수' 영역에서 음성영역과 잡음 영역을 분리한다.
2차원 이진 마스크는 웨이블릿 패킷 분해를 통해 분해된 음성신호를 시간-주파수 2차원 영역에서 잡음영역을 분리하여 잡음을 추출하는데 활용되며, 이 잡음 영역의 신호를 추출하여 적응형 잡음 제거기의 참고신호로 활용하고, 잡음 참고신호와 시스템의 오류가 최소가 되는 방향으로 잡음 제거기의 계수를 갱신하여 음성신호의 잡음을 제거한다. 이러한 잡음제거 방법의 특징으로 인해, 어떠한 잡음 환경에도 적응이 가능하며 낮은 신호대 잡음비 환경에서도 우수한 잡음 제거 성능을 보이며, 음성신호의 손실을 최소화하여 음성을 향상시키는 잡음제거기가 제공된다.
도 1은 본 발명의 일 실시 예에 따른 적응형 잡음제거기(100)의 구성도이다. 도 1을 참조하면, 본 실시 예에 따른 적응형 잡음제거기(100)는 음성신호 입력부(110), 웨이블릿 패킷 분해부(120), 참고신호 추출부(130) 및 잡음 제거부(140)를 포함한다.
음성신호 입력부(110)는 음성신호를 입력받는 장치, 예컨대 마이크로폰 등으로 제공될 수 있다. 다른 예로, 음성신호 입력부(110)는 다른 장치로부터 음성신호를 수신받기 위한 통신 인터페이스 장치로 제공될 수도 있다.
음성신호 입력부(110)로부터 잡음이 섞인 음성신호가 입력되면, 웨이블릿 패킷 분해부(120)는 음성신호를 시간-주파수 2차원 영역의 다수의 웨이블릿 서브밴드로 분해한다. 웨이블릿 패킷 분해(wavelet packet decomposition) 방식은 웨이블릿 변환을 기반으로 웨이블릿 필터 뱅크(wavelet filter bank)를 변형한 형태를 가지고 있다.
일 실시 예에 있어서, 웨이블릿 패킷 분해부(120)는 산술적인 밴드별 에너지를 기반으로 하지 않고, 인간의 음향 청각 모델을 기반으로 인간의 청신경에 자극되는 에너지의 크기에 맞추어 도 2의 도시와 같은 17개의 서브밴드를 가진 웨이블릿 필터 뱅크를 구성하여, 음성신호를 17개의 웨이블릿 서브밴드로 분해할 수 있다. 웨이블릿 서브밴드들은 17개의 주파수 정보를 가진 시간 영역 신호의 형태를 가지고 있으며, 시간과 주파수의 정보를 모두 나타내어 2차원 행렬로 나타낼 수 있다.
일 실시 예에서, 음성 신호는 17개의 서브밴드를 가지는 웨이블릿 계수 (w j,m (k))로 분해된다. 웨이블릿 계수 (w j ,m (i))는 j번째 레벨, m번째 웨이블릿 서브밴드의 i번째 웨이블릿 계수를 나타낸다(j=3, 4, 5, m=1, ... ,17). 웨이블릿 계수 (w j,m (i))를 시간과 주파수 영역의 정보를 동시에 처리하기 위해, 웨이블릿 계수를 아래 식 1과 같이 2차원 행렬로 나타낼 수 있다.
[식 1]
Figure 112016055868395-pat00011
여기서
Figure 112016055868395-pat00012
는 특정시간 t에서의 m번째 서브밴드의 웨이블릿 계수를 나타낸다. 다시 도 1을 참조하면, 웨이블릿 패킷 분해부(120)에 의해 음성신호가 웨이블릿 서브밴드들로 분해되면, 참고신호 추출부(130)는 다수의 웨이블릿 서브밴드들 각각으로부터 시간-주파수 2차원 2진 마스크 특징을 산출하여 잡음 참고신호를 추출한다.
일 실시 예로, 참고신호 추출부(130)는 이차원 이진 마스크 생성부(132)와, 잡음참고신호 생성부(134)를 포함한다. 도 3은 본 발명의 일 실시 예에 따른 적응형 잡음제거기를 구성하는 이차원 이진 마스크 생성부(132)의 구성도이다. 도 1 및 도 3을 참조하면, 이차원 이진 마스크 생성부(132)는 에너지편차 산출부(1322)와, 마스크 특징벡터 산출부(1324) 및 이진마스크 추출부(1326)를 포함한다.
에너지편차 산출부(1322)는 다수의 웨이블릿 서브밴드에 대한 시간과 주파수 영역의 정보를 갖는 2차원 행렬의 웨이블릿 계수를 이용하여 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 산출한다. 일 실시 예로, 에너지편차 산출부(1322)는 아래 식 2에 따라 에너지 편차를 산출할 수 있다.
[식 2]
Figure 112016055868395-pat00013
식 2에서,
Figure 112016055868395-pat00014
은 m번째 웨이블릿 서브밴드의 에너지 편차, N은 웨이블릿 서브밴드의 한 프레임의 샘플 개수,
Figure 112016055868395-pat00015
는 웨이블릿 서브밴드의 i번째 프레임이다.
마스크 특징벡터 산출부(1324)는 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 이용하여 다수의 웨이블릿 서브밴드 각각의 2진 마스크 특징 벡터를 산출한다. 일 실시 예로, 마스크 특징벡터 산출부(1324)는 아래 식 3에 따라 2진 마스크 특징 벡터를 산출할 수 있다.
[식 3]
Figure 112016055868395-pat00016
식 3에서,
Figure 112016055868395-pat00017
은 m번째 웨이블릿 서브밴드의 에너지 편차이며, B는 웨이블릿 서브밴드의 개수, N은 웨이블릿 서브밴드의 한 프레임의 샘플 개수이다. 도 2에 따른 웨이블릿 패킷 분해의 경우, B는 17의 값을 갖는다.
Figure 112016055868395-pat00018
은 마스크 특징 벡터로 2차원 이진 마스크 추출을 위해 m번째 웨이블릿 서브밴드의 잡음 특징(feature)을 나타낸다.
이진 마스크 추출부(1326)는 다수의 웨이블릿 서브밴드 별로 마스크 특징 벡터와 음성신호를 비교하여 시간 영역과 주파수 영역의 2차원에 대한 이진 마스크를 추출한다. 일 실시 예로, 이진 마스크 추출부(1326)는 아래 식 4에 따라, 각각의 웨이블릿 서브밴드의 잡음 특징을 이용하여 시간 영역과 주파수 영역의 2차원에 대한 이진 마스크를 추출한다.
[식 4]
Figure 112016055868395-pat00019
식 4에서,
Figure 112016055868395-pat00020
는 m번째 웨이블릿 서브밴드의 k번째 이진 마스크를 나타내며,
Figure 112016055868395-pat00021
는 m번째 웨이블릿 서브밴드의 k번째 프레임의 웨이블릿 계수 평균값이다. 2차원 이진 마스크
Figure 112016055868395-pat00022
는 0과 1의 값을 가지며, 분해된 웨이블릿 계수들을 프레임별로 잡음밴드와 음성밴드로 분리하여 필터링하는 역할을 한다.
도 4는 신호대잡음비 5dB의 크기로 백색잡음이 섞인 음성신호의 파형 예시도이다. 도 5는 본 발명의 실시 예에 따라 도 4의 음성신호를 웨이블릿 패킷 분해한 결과를 보여주는 그래프이고, 도 6은 본 발명의 실시 예에 따라 도 4의 음성신호로부터 추출된 2차원 이진 마스크를 보여주는 도면이다. 도 5 및 도 6에서 x축은 웨이블릿 서브밴드를 나타내고, y축은 시간을 나타낸다. 그리고 도 5에서 z축은 웨이블릿 계수를 나타내며, 도 6에서 z축은 이진 마스크 값을 나타낸다.
도 5에서, 17개의 웨이블릿 서브밴드로 분해된 시간 영역과 주파수 영역의 음성신호 정보를 확인할 수 있으며, 큰 웨이블릿 계수를 가지는 음성 영역 밴드의 구간을 확인할 수 있다. 도 6의 마스크는 0과 1의 값을 가지며, 0은 잡음 영역 밴드를, 1은 음성 영역 밴드를 나타낸다. 도 5에서 확인할 수 있는 음성 영역 밴드의 구간과 도 6의 음성 영역 밴드의 구간이 거의 일치하는 것을 볼 수 있다.
다시 도 1을 참조하면, 잡음참고신호 생성부(134)는 다수의 웨이블릿 서브밴드 각각의 이진 마스크 특징을 이용하여 잡음 제거를 위한 잡음 참고신호를 생성한다. 잡음참고신호 생성부(134)는 2차원 이진 마스크를 이용하여 음성 영역 밴드와 잡음 영역 밴드를 분리할 수 있다. 일 실시 예로, 잡음참고신호 생성부(134)는 분리된 잡음 영역 밴드의 웨이블릿 계수를 이용하여 아래 식 5와 같이 잡음 참고신호를 추정할 수 있다.
[식 5]
Figure 112016055868395-pat00023
식 5에서,
Figure 112016055868395-pat00024
는 시간에 따른 추정된 웨이블릿 잡음 밴드 계수이며, 모든 밴드의 웨이블릿 계수의 합 연산을 통해 잡음 참고신호가 추정될 수 있다. 도 7은 본 발명의 실시 예에 따라 2차원 이진 마스크를 이용해 추정된 잡음 참고신호를 보여주는 도면이다. 도 4를 참조하면 전 영역에서 백색잡음이 섞인 음성신호를 볼 수 있으며, 음성이 없는 구간에는 잡음만 존재하지만, 음성이 있는 구간에서는 음성 속에 잡음이 혼재되어 있으므로 잡음을 분리하기가 힘들다. 본 발명의 실시 예에 따라 추정된 잡음 참고신호는 도 7의 도시와 같이, 잡음만 존재하는 구간뿐만 아니라, 음성 구간 내의 잡음까지도 추정된 것을 확인할 수 있다. 추정된 잡음 참고신호는 음성 구간과 잡음 구간 모두의 통계적 특징을 보존하며, 음성 신호와의 독립성을 가지므로 적응형 잡음 제거기에 사용될 수 있다.
기존의 적응형 잡음 제거기는 다 채널 입력신호를 요구하거나 잡음 참고신호를 추정하기 위해 웨이블릿 문턱치, 선험적 신호 대 잡음비 등의 방법을 이용하기 때문에 단일채널 입력신호를 가진 음향 기기에서는 사용할 수 없거나 특정 잡음환경에서 성능이 떨어지는 단점이 있었다. 본 발명의 실시 예에 따른 적응형 잡음 제거기는 단일채널 입력신호만으로 잡음을 제거하여 음성을 향상시키며, 모든 잡음 환경에 적응적으로 잡음을 효과적으로 제거할 수 있다.
잡음 제거부(140)는 잡음 참고신호에 기초하여 잡음제거 계수를 갱신하여 음성신호의 잡음을 제거한다. 잡음 제거부(140)는 적응형 필터(142)와, 잡음 제거 모듈(144)을 포함할 수 있다. 적응형 필터(142)와 잡음 제거 모듈(144)은 참고신호 추출부(130)에 의해 추출된 잡음 참고신호와 함께 시스템이 최소의 오차를 가지도록 적응형 필터(142)의 값을 갱신하고, 입력된 음성신호의 잡음을 효율적으로 제거하고 음성을 향상시킨다. 적응형 필터(142) 및 잡음 제거 모듈(144)은 본 발명의 기술분야에 속하는 기술자에게 잘 알려져 있으므로, 이에 대한 상세한 설명은 생략한다. 적응형 필터를 이용한 잡음 제거 기술은 예를 들어, "Extrapolation, Interpolation, and Smoothing of Stationary Time Series Vol. 2(N. Wiener, MIT Press, Cambridge, MA, 1949.)"에 기술되어 있다.
본 발명의 실시 예에 따른 적응형 잡음제거기의 효과를 검증하기 위하여, 공인된 데이터베이스에서 임의 추출한 신호 샘플을 사용하여, 다양한 잡음 환경 하에서 실험을 수행하였다. 음성신호의 샘플은 TIMIT 데이터베이스에서 추출하였으며, 잡음신호의 샘플은 NOISEX-92 데이터베이스에서 추출하였다. 데이터 샘플은 16bit의 비트심도, 16kHz의 샘플링레이트, 그리고 256kbps의 비트율을 갖는다. 음성신호는 다양한 사람들이 발음한 120개의 음성 신호 샘플을 임의 추출하였으며, 다양한 잡음환경에서 실험을 수행하기 위해, 백색 잡음(white noise), 자동차 잡음(car noise), 웅성거림 잡음(babble noise), 공장 잡음(factory noise), 그리고 탱크엔진 잡음(Leopard noise)을 다양한 SNR(0dB, 5dB, 10dB, 15dB)로 음성 신호와 섞어 실험 환경을 구축하였다.
도 8의 (a)는 잡음이 섞이지 않은 깨끗한 음성신호의 파형이며, (b)는 백색잡음이 SNR 5dB의 크기로 섞인 음성신호이다. 도 9는 본 발명의 실시 예에 따라 음성을 향상시킨 결과이다. 도 9의 도시와 같이, 본 발명의 실시 예에 의하면, 주변부의 잡음이 깨끗하게 제거되고 음성신호도 유지된 것을 확인할 수 있다.
음성향상 성능을 객관적으로 평가하기 위해 ITU-T recommendation P.862에 채택된 PESQ를 평가지표로 사용하였다. P.862는 전화 통신 및 음성 코덱의 객관적 평가 지표로 제안된 표준이며, PESQ는 음성의 크기, 활성도, 지연, 에코, 그리고 패턴 등을 모두 감안하여 모든 언어에 활용 가능하도록 디자인되어 현재 가장 널리 사용되고 있는 객관적 음질 평가 지표이다. 또한 향상된 음성신호의 각 프레임별 평균 SNR을 계산하여 신호 전체에 대해 기하평균으로 음성신호의 정확도를 평가하는 SNRseg을 이용해 정확도를 평가하였다.
본 발명의 실시 예에 의하면, 모든 잡음 환경에서 개선된 음성향상 성능을 보였으며, 0dB 환경에서 7dB 이상(13.02dB)의 높은 음성 향상 효과, 2 이상(2.66)의 우수한 PESQ 결과를 보여, 특히 잡음이 강하게 나타나는 낮은 SNR 환경에서 더 좋은 결과를 보였다. 본 발명의 실시 예는 음성 통신, 인간-기기 상호 작용, 스마트기기, 디지털 보청기 등 다양한 음성 신호 처리 분야에 적용될 수 있다.
본 발명의 실시 예에 따른 적응형 잡음제거 방법은 예를 들어 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 컴퓨터로 읽을 수 있는 기록매체는 SRAM(Static RAM), DRAM(Dynamic RAM), SDRAM(Synchronous DRAM) 등과 같은 휘발성 메모리, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Electrically Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), 플래시 메모리 장치, PRAM(Phase-change RAM), MRAM(Magnetic RAM), RRAM(Resistive RAM), FRAM(Ferroelectric RAM)과 같은 불휘발성 메모리, 플로피 디스크, 하드 디스크 또는 광학적 판독 매체 예를 들어 시디롬, 디브이디 등과 같은 형태의 저장매체일 수 있으나, 이에 제한되지는 않는다.
이상의 실시 예들은 본 발명의 이해를 돕기 위하여 제시된 것으로, 본 발명의 범위를 제한하지 않으며, 이로부터 다양한 변형 가능한 실시 예들도 본 발명의 범위에 속하는 것임을 이해하여야 한다. 본 발명의 기술적 보호범위는 특허청구범위의 기술적 사상에 의해 정해져야 할 것이며, 본 발명의 기술적 보호범위는 특허청구범위의 문언적 기재 그 자체로 한정되는 것이 아니라 실질적으로는 기술적 가치가 균등한 범주의 발명에 대하여까지 미치는 것임을 이해하여야 한다.
100: 적응형 잡음제거기
110: 음성신호 입력부
120: 웨이블릿 패킷 분해부
130: 참고신호 추출부
132: 이차원 이진 마스크 생성부
1322: 에너지편차 산출부
1324: 마스크 특징벡터 산출부
1326: 이진마스크 추출부
134: 잡음참고신호 생성부
140: 잡음 제거부
142: 적응형 필터
144: 잡음 제거 모듈

Claims (12)

  1. 음성신호를 시간-주파수 2차원 영역의 정보를 갖는 다수의 웨이블릿 서브밴드로 분해하는 웨이블릿 패킷 분해부;
    상기 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 산출하고, 상기 에너지 편차를 이용하여 상기 다수의 웨이블릿 서브밴드 각각의 2진 마스크 특징 벡터를 산출하고, 상기 2진 마스크 특징 벡터를 이용하여 잡음 제거를 위한 잡음 참고신호를 추출하는 참고신호 추출부; 및
    상기 잡음 참고신호에 기초하여 잡음제거 계수를 갱신하여 음성신호의 잡음을 제거하는 잡음 제거부를 포함하고,
    상기 참고신호 추출부는:
    상기 다수의 웨이블릿 서브밴드에 대한 시간 영역과 주파수 영역의 정보를 갖는 2차원 행렬의 웨이블릿 계수를 이용하여 상기 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 산출하는 에너지편차 산출부;
    상기 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 이용하여 상기 다수의 웨이블릿 서브밴드 각각의 2진 마스크 특징 벡터를 산출하는 마스크 특징벡터 산출부;
    상기 다수의 웨이블릿 서브밴드 별로 상기 2진 마스크 특징 벡터와 상기 웨이블릿 계수를 비교하여 시간 영역과 주파수 영역의 2차원에 대한 이진 마스크를 추출하는 이진 마스크 추출부; 및
    상기 이진 마스크를 이용하여 상기 잡음 참고신호를 생성하는 잡음참고신호 생성부를 포함하는 적응형 잡음제거기.
  2. 삭제
  3. 제1 항에 있어서,
    상기 마스크 특징벡터 산출부는:
    상기 다수의 웨이블릿 서브밴드 각각의 에너지 편차, 상기 웨이블릿 서브밴드의 개수 및 상기 웨이블릿 서브밴드의 한 프레임의 샘플 개수에 기초하여 상기 2진 마스크 특징 벡터를 산출하는 적응형 잡음제거기.
  4. 제1 항에 있어서,
    상기 2진 마스크 특징 벡터는 하기의 수식 1 및 수식 2에 따라 산출되며,
    [수식 1]
    Figure 112019075464853-pat00025

    [수식 2]
    Figure 112019075464853-pat00026

    상기 수식 1 및 상기 수식 2에서,
    Figure 112019075464853-pat00027
    은 m번째 웨이블릿 서브밴드의 에너지 편차, N은 웨이블릿 서브밴드의 한 프레임의 샘플 개수, B는 웨이블릿 서브밴드의 개수,
    Figure 112019075464853-pat00028
    은 2진 마스크 특징 벡터인 적응형 잡음제거기.
  5. 제4 항에 있어서,
    상기 이진 마스크는 하기의 수식 3에 따라 산출되며,
    [수식 3]
    Figure 112016055868395-pat00029

    상기 수식 3에서,
    Figure 112016055868395-pat00030
    는 m번째 웨이블릿 서브밴드의 k번째 이진 마스크,
    Figure 112016055868395-pat00031
    는 m번째 웨이블릿 서브밴드의 k번째 프레임의 웨이블릿 계수 평균값인 적응형 잡음제거기.
  6. 제5 항에 있어서,
    상기 잡음 참고신호는 하기의 수식 4에 따라 산출되며,
    [수식 4]
    Figure 112016055868395-pat00032

    상기 수식 4에서,
    Figure 112016055868395-pat00033
    는 m번째 웨이블릿 서브밴드의 잡음 참고신호인 적응형 잡음제거기.
  7. 음성신호를 시간-주파수 2차원 영역의 정보를 갖는 다수의 웨이블릿 서브밴드로 분해하는 것;
    상기 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 산출하는 것;
    상기 다수의 웨이블릿 서브밴드 별로 산출된 에너지 편차를 이용하여 상기 다수의 웨이블릿 서브밴드 각각의 2진 마스크 특징 벡터를 산출하는 것;
    상기 2진 마스크 특징 벡터를 이용하여 잡음 제거를 위한 잡음 참고신호를 추출하는 것; 그리고
    상기 잡음 참고신호에 기초하여 잡음제거 계수를 갱신하여 음성신호의 잡음을 제거하는 것을 포함하고,
    상기 이진 마스크 특징을 산출하는 것은:
    상기 다수의 웨이블릿 서브밴드 각각의 에너지 편차를 이용하여 상기 다수의 웨이블릿 서브밴드 각각의 2진 마스크 특징 벡터를 산출하는 것; 그리고
    상기 다수의 웨이블릿 서브밴드 별로 상기 2진 마스크 특징 벡터와 상기 웨이블릿 서브밴드의 웨이블릿 계수를 비교하여 시간 영역과 주파수 영역의 2차원에 대한 이진 마스크를 추출하는 것을 포함하는 적응형 잡음제거 방법.
  8. 삭제
  9. 제7 항에 있어서,
    상기 2진 마스크 특징 벡터는 하기의 수식 1 및 수식 2에 따라 산출되며,
    [수식 1]
    Figure 112019075464853-pat00034

    [수식 2]
    Figure 112019075464853-pat00035

    상기 수식 1 및 상기 수식 2에서,
    Figure 112019075464853-pat00036
    은 m번째 웨이블릿 서브밴드의 에너지 편차, N은 웨이블릿 서브밴드의 한 프레임의 샘플 개수, B는 웨이블릿 서브밴드의 개수,
    Figure 112019075464853-pat00037
    은 2진 마스크 특징 벡터인 적응형 잡음제거 방법.
  10. 제9 항에 있어서,
    상기 이진 마스크는 하기의 수식 3에 따라 산출되며,
    [수식 3]
    Figure 112016055868395-pat00038

    상기 수식 3에서,
    Figure 112016055868395-pat00039
    는 m번째 웨이블릿 서브밴드의 k번째 이진 마스크,
    Figure 112016055868395-pat00040
    는 m번째 웨이블릿 서브밴드의 k번째 프레임의 웨이블릿 계수 평균값인 적응형 잡음제거 방법.
  11. 제10 항에 있어서,
    상기 잡음 참고신호는 하기의 수식 4에 따라 산출되며,
    [수식 4]
    Figure 112016055868395-pat00041

    상기 수식 4에서,
    Figure 112016055868395-pat00042
    는 m번째 웨이블릿 서브밴드의 잡음 참고신호인 적응형 잡음제거 방법.
  12. 제7 항, 제9 항 내지 제11 항 중 어느 한 항의 적응형 잡음제거 방법을 실행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록매체.
KR1020160072363A 2016-06-10 2016-06-10 적응형 잡음제거기, 잡음제거 방법 KR102033469B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160072363A KR102033469B1 (ko) 2016-06-10 2016-06-10 적응형 잡음제거기, 잡음제거 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160072363A KR102033469B1 (ko) 2016-06-10 2016-06-10 적응형 잡음제거기, 잡음제거 방법

Publications (2)

Publication Number Publication Date
KR20170140461A KR20170140461A (ko) 2017-12-21
KR102033469B1 true KR102033469B1 (ko) 2019-10-18

Family

ID=60936220

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160072363A KR102033469B1 (ko) 2016-06-10 2016-06-10 적응형 잡음제거기, 잡음제거 방법

Country Status (1)

Country Link
KR (1) KR102033469B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110379440A (zh) * 2019-07-19 2019-10-25 宁波奥克斯电气股份有限公司 语音降噪方法、装置、语音空调及计算机可读存储介质
KR102136700B1 (ko) * 2020-03-31 2020-07-23 한국건설기술연구원 톤 카운팅 기반의 음성활성구간 검출 장치 및 방법
CN116631410B (zh) * 2023-07-25 2023-10-24 陈志丰 一种基于深度学习的语音识别方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100789084B1 (ko) * 2006-11-21 2007-12-26 한양대학교 산학협력단 웨이블릿 패킷 영역에서 비선형 구조의 과중 이득에 의한음질 개선 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100789084B1 (ko) * 2006-11-21 2007-12-26 한양대학교 산학협력단 웨이블릿 패킷 영역에서 비선형 구조의 과중 이득에 의한음질 개선 방법

Also Published As

Publication number Publication date
KR20170140461A (ko) 2017-12-21

Similar Documents

Publication Publication Date Title
JP5260561B2 (ja) 知覚モデルを使用した音声の強調
Krueger et al. Model-based feature enhancement for reverberant speech recognition
Wu et al. Subband Kalman filtering for speech enhancement
Wang et al. STFT-domain neural speech enhancement with very low algorithmic latency
AT509570B1 (de) Methode und apparat zur einkanal-sprachverbesserung basierend auf einem latenzzeitreduzierten gehörmodell
KR102033469B1 (ko) 적응형 잡음제거기, 잡음제거 방법
Geng et al. End-to-end speech enhancement based on discrete cosine transform
Roy et al. Deep learning with augmented Kalman filter for single-channel speech enhancement
Choi Noise reduction algorithm in speech by Wiener filter
Mourad Speech enhancement based on stationary bionic wavelet transform and maximum a posterior estimator of magnitude-squared spectrum
Lei et al. Speech enhancement for nonstationary noises by wavelet packet transform and adaptive noise estimation
CN113593599A (zh) 一种去除语音信号中噪声信号的方法
Enzner et al. Bayesian MMSE filtering of noisy speech by SNR marginalization with global PSD priors
Taşmaz et al. Speech enhancement based on undecimated wavelet packet-perceptual filterbanks and MMSE–STSA estimation in various noise environments
Yoshioka et al. Dereverberation by using time-variant nature of speech production system
Esch et al. Model-based speech enhancement using SNR dependent MMSE estimation
KR20190037867A (ko) 잡음이 섞인 음성 데이터로부터 잡음을 제거하는 장치, 방법 및 컴퓨터 프로그램
KR101936242B1 (ko) 잡음 제거 장치 및 방법, 기록 매체
Gui et al. Adaptive subband Wiener filtering for speech enhancement using critical-band gammatone filterbank
KR101958006B1 (ko) 음성 향상 장치 및 방법, 기록 매체
Solé-Casals et al. A non-linear VAD for noisy environments
KR20090111739A (ko) 잡음 제거 장치 및 방법
Hoya et al. Stereophonic noise reduction using a combined sliding subspace projection and adaptive signal enhancement
Islam et al. Enhancement of noisy speech based on decision-directed Wiener approach in perceptual wavelet packet domain
Liu et al. MTF-based kalman filtering with linear prediction for power envelope restoration in noisy reverberant environments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right