KR20090083112A - 잡음 제거 장치 및 방법 - Google Patents

잡음 제거 장치 및 방법 Download PDF

Info

Publication number
KR20090083112A
KR20090083112A KR1020080009088A KR20080009088A KR20090083112A KR 20090083112 A KR20090083112 A KR 20090083112A KR 1020080009088 A KR1020080009088 A KR 1020080009088A KR 20080009088 A KR20080009088 A KR 20080009088A KR 20090083112 A KR20090083112 A KR 20090083112A
Authority
KR
South Korea
Prior art keywords
signal
noise
frequency
frequency band
band
Prior art date
Application number
KR1020080009088A
Other languages
English (en)
Other versions
KR100940629B1 (ko
Inventor
홍정표
박지훈
정상배
한민수
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020080009088A priority Critical patent/KR100940629B1/ko
Publication of KR20090083112A publication Critical patent/KR20090083112A/ko
Application granted granted Critical
Publication of KR100940629B1 publication Critical patent/KR100940629B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

본 발명은 잡음 제거 장치 및 방법에 관한 것으로, 음성인식 및 음성 복부호화기를 위한 잡음 제거 방법에 있어서, 음성신호인 목적신호의 위치를 선행 정보로 입력받는 단계와, 복수의 마이크로부터 수신된 다채널 음향신호에 대해 시간영역 주파수 분할 필터링을 수행하는 단계와, 상기 주파수 분할된 신호에 대해 상기 선행 정보를 바탕으로 채널별 신호 상관도를 이용하여 목적신호를 추정하는 단계와, 각 주파수 밴드의 신호에 대해서 학습률을 조절하는 단계와, 상기 조절된 학습률에 따라 주파수 밴드별 빔포밍을 수행한 후, 각 주파수 밴드별 빔포밍을 합성하여 시간영역의 목적신호를 복원하는 단계를 포함함으로써, 목적신호를 최대한 보존하면서 잡음을 제거할 수 있기 때문에, 음성신호의 신호 대 잡음 비가 크게 향상될 뿐만 아니라 그 결과 높은 품질의 음성 통화가 가능해질 수 있는 효과가 있다.
음성인식, 음성 복부호화기, 빔포밍, 잡음, 학습률, 상관도, 등화기

Description

잡음 제거 장치 및 방법{NOISE CANCELLATION APPARATUS AND METHOD THEREOF}
본 발명은 잡음 제거 장치 및 방법에 관한 것으로, 보다 상세하게는 목적신호의 정확한 검출을 통하여 목적신호 구간과 잡음신호 구간의 학습률을 다르게 적용하여 목적신호를 최대한 보존하면서 정상성 혹은 비정상성의 잡음을 효과적으로 제거할 수 있는 잡음 제거 장치 및 방법에 관한 것이다.
현재까지 연구된 빔포밍(Beamforming)은 크게 입력 정보의 사용유무에 따라 고정 빔포밍과 적응 빔포밍으로 구분된다. 고정 빔포밍의 대표적인 예는 DSB(Delay and Sum Beamforming)으로 각 채널당 입력신호들의 시간지연을 보상하여 목적신호에 대해 위상정합을 시키는 방식이다.
그밖에 LMS(Least Mean Square) 방식과 Dolph-Chebyshev 방식이 있다. 하지만, 상기 고정 빔포밍은 빔포머의 가중치가 신호의 위치와 주파수, 그리고 채널간의 간격에 의해 고정되기 때문에 신호 환경에 적응적이지 못하여 그 성능에 한계가 있다.
반면, 상기 적응 빔포밍은 신호환경에 따라 빔포머의 가중치가 변하도록 설계되어 있다. 대표적인 적응 빔포밍 방식으로 GSC(Generalized Sidelobe Canceller)와 LCMV(Linearly Constrained Minimum Variance) 방식이 있다.
일반적인 GSC 방식은 고정 빔포밍과 목적신호 차단행렬, 그리고 다중 간섭제거기로 구성되어 있다. 상기 목적신호 차단행렬에서는 입력신호들을 이용하여 음성신호를 차단하고 잡음신호만을 출력한다.
상기 목적신호 차단행렬에서 출력된 잡음신호들을 이용하여 다중 간섭제거기 에서는 이미 잡음이 한번 제거된 고정 빔포밍의 출력신호에 재차 잡음을 제거하게 된다.
하지만, 기존의 GSC 방식은 목적신호 차단행렬의 제약이 고정되어 있다. 이러한 문제점을 해결하고자 CCAF 와 NCAF(Norm- Constrained Adaptive Filter)를 이용한 GSC 기반의 CCAF 방식이 널리 사용된다.
상기 목적신호 차단행렬에서는 CCAF를, 상기 다중 간섭제거기에서는 NCAF를 사용한다. 상기 CCAF의 제약 때문에, 상기 목적신호 차단행렬에서는 다중 간섭제거기의 출력신호를 기준 신호로 삼아, 출력신호에 목적신호의 성분을 최소화할 수 있다.
상기 다중 간섭제거기에서는 NCAF를 사용하는데, 상기 목적신호 차단행렬에서 목적신호 제거가 확실히 되지 않아 갑자기 큰 변화가 생기는 프레임에 대해 기준(norm) 제약을 적용함으로써, 목적신호가 많이 제거되지 않게 해준다.
목적신호가 들어오는 경우와 들어오지 않는 경우, 잡음신호가 들어오는 경우 와 들어오지 않는 경우에 대하여 목적신호 차단행렬과 다중 간섭제거기가 다르게 동작하는데, 상기 목적신호가 들어오는 것을 확인하는 것은 음성검출기(Voice Activity Detection)를 통해서 확인이 가능하다.
상기 잡음신호만이 들어오는 경우에 상기 목적신호 차단행렬에서는 제거할 목적신호가 없으므로, 모든 신호를 필터링 시켜준다. 이러한 필터링은 필터계수를 이용해서 복적분을 수행하는 것을 말한다.
그리고, 상기 다중 간섭제거기에서는 그 잡음정보를 이용하여 필터링과 적응훈련을 하게 된다. 상기 적응훈련은 필터계수를 에러의 에너지가 감소하는 방향으로 훈련시킨다. 잡음신호와 표적신호가 동시에 들어오는 경우에는 목적신호 차단행렬과 다중 간섭제거기 모두에서 필터링을 시켜준다. 마지막으로 목적신호만 들어오는 경우에는 목적신호 차단행렬에서는 필터링과 적응훈련을 시켜주고, 다중 간섭제거기에서는 제거할 잡음신호가 없으므로 필터링만 시켜준다.
한편, 프로스트 방식은 목적신호의 방향과, 각 마이크로폰으로의 도착 시간차이, 주파수 응답을 사용하는 성능이 우수하며 많이 사용되는 방식이다. 목적신호의 방향을 제외한 다른 방향에서의 잡음신호의 에너지를 계산한다.
그리고, 계산된 잡음신호의 에너지가 최소화되도록 가중치를 구하는 것이 프로스트 방식이다. 이러한 프로스트 방식에서 사용되는 빔포밍은 K개의 마이크로폰과 각 마이크로폰 한 개당 J개의 탭(tap)으로 이루어져있기 때문에 KJ개의 가중치가 필요하다.
빔포밍 출력신호의 에너지가 가장 작을 때 잡음신호가 많이 제거된 것이므 로, 출력신호의 에너지가 최소화 될 때의 최적화된 가중치를 계산 할 수 있다. K번째 샘플에서의 출력신호는 하기의 수학식 1과 같다.
Y(k)=WTX(k)=XT(k)W
여기서, Y(k)는 출력신호이고, W는 가중치이다. X(k)는 입력신호이다. 출력신호 에너지의 기대값을 구하면 하기의 수학식 2와 같다.
E|y2(k)|=E|WTX(k)XT(k)W|
여기서, X(k)XT(k)는 자기상관도가 되므로 상기의 수학식 2는 하기의 수학식 3으로 다시 쓸 수 있다.
Figure 112008007490350-PAT00001
상기 출력신호의 기대값이 최소화 되게 해주는 가중치 W를 구하는 식은 하기의 수학식 4와 같다.
Figure 112008007490350-PAT00002
여기서, C는 제약 행렬이고, F는 목적신호 방향가중치의 J차원 벡터로 정의된다. 필터뱅크는 대역통과(Band-Pass) 필터를 통과해 여러 개의 대역으로 나누어지는데, 이러한 분석법은 잡음 환경에서 강인한 것으로 알려져 있다.
하지만, 상기 대역통과 필터의 구조적 문제로 인해서 분할된 필터뱅크의 정보를 다시 합칠 때 신호의 완벽한 복구가 불가능하다. 그러나, QMF(Quadratic Mirror Filter) 방식의 필터뱅크는 이러한 문제점을 해결할 수 있다.
실험을 통하여 프로스트 방식이 신호 대 잡음 비 측면에서 CCAF 기반의 GSC보다 높은 성능을 나타내었다. 또한, 주파수별 신호분석과 신호의 완벽 복구를 위해 QMF 필터 뱅크를 프로스트 방식에 도입하였다.
기존의 적응 빔포밍 방식은 전 대역에 걸쳐 동일한 학습률을 적용하여 가중치를 갱신하기 때문에 학습률이 크면 목적신호가 많이 제거되고, 학습률이 작으면 잡음신호가 많이 제거되지 않는 문제점이 있다.
본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 목적신호의 정확한 검출을 통하여 목적신호 구간과 잡음신호 구간의 학습률을 다르게 적용하여 목적신호를 최대한 보존하면서 정상성 혹은 비정상성의 잡음을 효과적으로 제거할 수 있도록 한 잡음 제거 장치 및 방법을 제공하는데 있다.
본 발명의 다른 목적은 입력신호 간의 상호 상관도를 측정하여 문턱치 보다 큰 대역을 목적신호 구간으로 판단하여 학습률을 낮추고, 상호 상관도가 문턱치 보다 작은 대역은 잡음신호 구간으로 판단하여 학습률을 높여 효과적으로 잡음을 제거할 수 있도록 한 잡음 제거 장치 및 방법을 제공하는데 있다.
전술한 목적을 달성하기 위하여 본 발명의 제1 측면은, 음성인식 및 음성 복부호화기를 위한 잡음 제거 방법에 있어서, (a) 음성신호인 목적신호의 위치를 선행 정보로 입력받는 단계; (b) 복수의 마이크로부터 수신된 다채널 음향신호에 대해 시간영역 주파수 분할 필터링을 수행하는 단계; (c) 상기 단계(b)에서 주파수 분할된 신호에 대해 상기 선행 정보를 바탕으로 채널별 신호 상관도를 이용하여 목 적신호를 추정하는 단계; (d) 각 주파수 밴드의 신호에 대해서 학습률을 조절하는 단계; 및 (e) 상기 조절된 학습률에 따라 주파수 밴드별 빔포밍을 수행한 후, 각 주파수 밴드별 빔포밍을 합성하여 시간영역의 목적신호를 복원하는 단계를 포함하는 것을 특징으로 하는 잡음 제거 방법을 제공하는 것이다.
여기서, 상기 단계(a)이후에, (a') 상기 다채널 음성신호의 채널간 특성을 보상하기 위해 채널간의 이득차 및 시간차를 이용하는 주파수 영역 등화기 정보를 입력받는 단계를 더 포함함이 바람직하다.
바람직하게, 상기 단계(a')는, (a'-1) 상기 수신된 다채널 음향신호가 훈련 신호인지 판단하는 단계; (a'-2) 상기 단계(a'-1)에서 수신된 다채널 음향신호가 훈련 신호인 경우, 채널별 주파수 분석을 수행하는 단계; (a'-3) 기준 채널의 주파수별로 전력을 누적시킨 후, 채널간의 주파수별로 상관도를 누적시키는 단계; (a'-4) 상기 훈련 신호의 입력이 종료되었는지 여부를 판단하는 단계; 및 (a'-5) 상기 단계(a'-4)에서 훈련 신호의 입력이 종료된 경우, 누적 상관도와 누적 전력의 비를 계산하는 단계를 포함할 수 있다.
바람직하게, 상기 단계(b)는, 상기 수신된 다채널 음향신호를 M개의 등간격 대역(π/M) 통과 신호로 분할할 수 있다.
바람직하게, 상기 단계(c)는, (c-1) 미리 정해진 기준 마이크를 제외한 다른 마이크 중 어느 하나를 정하여 상호상관도를 추정하는 단계; 및 (c-2) 상기 기준 마이크의 입력신호에 대한 자기상관도를 추정하는 단계를 포함할 수 있다.
바람직하게, 상기 추정된 상호상관도를 자기상관도로 나눈 값과 기 설정된 문턱치를 비교 판단하여 학습률을 조절할 수 있다.
바람직하게, 상기 상호상관도를 자기상관도로 나눈 값이 상기 문턱치보다 크면, 목적신호로 판단되어 해당하는 주파수 밴드에 낮은 학습률을 적용하고, 상기 상호상관도를 자기상관도로 나눈 값이 상기 문턱치보다 작으면 잡음신호로 판단되어 해당하는 주파수 밴드에 높은 학습률을 적용할 수 있다.
바람직하게, 상기 단계(e)에서, 상기 시간영역 주파수 합성 필터링은, M개의 대역 통과 신호를 입력받은 후, 각 대역 신호에 대해서 M배의 zero를 삽입하는 단계; 및 각 대역 신호에 대해서 등간격 대역(π/M) 통과 필터링을 수행한 후, 각 대역 신호를 합하여 전체 주파수 대역의 신호를 합성하는 단계를 포함할 수 있다.
본 발명의 제2 측면은, 상술한 잡음 제거 방법을 실행시키기 위한 프로그램을 기록한 기록매체를 제공한다.
본 발명의 제3 측면은, 음성인식 및 음성 복부호화기를 위한 잡음제거 장치에 있어서, 음성 및 잡음이 포함된 음향 신호를 수신하는 복수의 마이크; 음성신호인 목적신호의 위치를 선행 정보로 입력받는 목적신호 정보 입력부; 상기 복수의 마이크간의 부정합을 보정하기 위한 등화기 정보를 출력하는 등화기 정보 입력부; 상기 목적신호의 위치 정보 및 등화기 정보를 바탕으로 주파수 밴드별로 채널별 신호 상관도를 이용하여 목적신호를 추정하고, 각 주파수 밴드의 신호에 대해 조절된 학습률에 따라 주파수 밴드별 빔포밍을 수행한 후, 이를 합성하여 잡음이 제거된 목적신호를 검출하는 잡음 제거부; 및 상기 복수의 마이크, 상기 목적신호 정보 입력부, 상기 등화기 정보 입력부 및 상기 잡음 제거부의 동작을 제어하는 제어부를 포함하는 것을 특징으로 하는 잡음 제거 장치를 제공하는 것이다.
바람직하게, 상기 잡음 제거부는, 상기 음향 신호를 단위 시간 단위의 단구간 다채널 신호 블록으로 나누는 신호 블록 형성부; 상기 단구간 다채널 신호 블록에 대해서 시간영역에서 주파수 분할 필터링을 수행하는 주파수 분할부; 주파수 밴드별 신호에 대해서 채널간 신호 상관도를 이용하여 목적신호 추정을 수행하는 목적신호 추정부; 각 주파수 밴드의 신호에 대해서 학습률을 조절하는 학습률 조절부; 상기 조절된 학습률에 따라 주파수 밴드별 빔포밍을 수행하여 잡음을 제거하는 잡음 처리부; 상기 잡음 처리부에서 잡음이 제거된 각 주파수 밴드별 목적신호를 시간영역에서 주파수 합성 필터링을 수행하는 주파수 합성부; 및 상기 음향 신호의 종료 여부를 판단하는 신호 종료 판단부를 포함할 수 있다.
이상에서 설명한 바와 같은 본 발명의 잡음 제거 장치 및 방법에 따르면, 목적신호를 최대한 보존하면서 잡음을 제거할 수 있기 때문에, 음성신호의 신호 대 잡음 비가 크게 향상될 뿐만 아니라 그 결과 높은 품질의 음성 통화가 가능해질 수 있는 이점이 있다.
또한, 본 발명에 따르면, 음성인식률 향상을 위하여 음성의 검출률 에러 및 주파수 응답의 왜곡을 보상하는 데에 사용이 가능하므로 신호 대 잡음비가 낮은 상 황에서 인식률을 획기적으로 높일 수 있는 이점이 있다.
또한, 본 발명에 따르면, 음성 복부호화기에 적용될 경우에 주변의 잡음 소리는 제거하고, 송/수화자의 목소리만을 전송할 수 있으므로 통화 품질의 향상에 기여할 수 있는 이점이 있다.
이하, 첨부 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나, 다음에 예시하는 본 발명의 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시예에 한정되는 것은 아니다. 본 발명의 실시예는 당업계에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되어지는 것이다.
도 1은 본 발명의 일 실시예에 따른 잡음 제거 장치를 설명하기 위한 개략적인 블록 구성도이고, 도 2는 본 발명의 일 실시예에 적용된 잡음 제거부를 구체적으로 설명하기 위한 블록 구성도이다.
도 1 및 도 2를 참조하면, 본 발명의 일 실시에에 따른 잡음 제거 장치는, 크게 복수의 마이크(100a, 100b), 목적신호 정보 입력부(200), 등화기 정보 입력부(300), 잡음 제거부(400) 및 제어부(500)를 포함하여 이루어진다.
여기서, 복수의 마이크(100a, 100b)는 외부에서 발생되는 음향을 입력받아서 대응되는 음향신호로 변환하여 출력하는 기능을 수행한다. 이때, 상기 음향신호는 바람직한 음성신호와 바람직하지 않은 잡음신호를 포함한다. 마이크는 복수의 마이 크로 구성되며, 본 명세서에서는 설명의 편의상 두 개만 도시하였다.
목적신호 정보 입력부(200)는 취득해야 할 목적신호의 위치를 입력받고, 잡음 제거부(400)로 전달하는 기능을 수행한다.
등화기 정보 입력부(300)는 마이크간의 부정합을 보정하기 위한 등화기 정보를 잡음 제거부(400)로 전달하는 기능을 수행한다.
잡음 제거부(400)는 목적신호 정보 입력부(200) 및 등화기 정보 입력부(300)로부터 각각 출력된 목적신호의 위치 정보 및 등화기 정보를 바탕으로 주파수 밴드별로 채널별 신호 상관도를 이용하여 목적신호를 추정하고, 각 주파수 밴드의 신호 블록에 대해 조절된 학습률에 따라 주파수 밴드별 빔포밍을 수행한 후, 이를 합성하여 잡음이 제거된 목적신호를 검출하는 기능을 수행한다.
이러한 잡음 제거부(400)는 신호 블록 형성부(410), 주파수 분할부(420), 목적신호 추정부(430), 학습률 조절부(440), 잡음 처리부(450), 주파수 합성부(460) 및 신호 종료 판단부(470)를 포함한다.
여기서, 신호 블록 형성부(410)는 입력된 음향신호를 단위 시간 단위의 음향신호를 나눈다. 즉, 단구간 다채널 신호 블록으로 음향신호를 나누는 동작을 수행한다.
주파수 분할부(420)는 단위 시간별로 입력된 다채널 시간 블록에 대해서 시간 지연과 방향에 대한 모호성을 해결하기 위해 시간영역에서 주파수 분할 필터링을 수행하여 채널-주파수 밴드 신호를 생성한다.
목적신호 추정부(430)는 주파수 분할부(420)로부터 생성된 주파수 밴드별 신 호에 대해서 채널간 신호 상관도를 이용하여 목적신호 추정을 수행한다.
학습률 조절부(440)는 각 주파수 밴드의 신호 블록에 대해서 학습률을 조절하는 기능을 수행한다.
잡음 처리부(450)는 각 주파수 밴드의 신호 블록에 대해 조절된 학습률에 따라 주파수 밴드별 빔포밍을 수행하여 잡음을 제거한다. 이를 통해 각 주파수 밴드별 목적신호가 추출된다.
주파수 합성부(460)는 잡음 처리부(450)에서 추출된 각 주파수 밴드별 목적신호를 전체 주파수 대역의 신호를 합성하기 위해 시간영역 주파수 합성 필터링을 수행한다.
신호 종료 판단부(470)는 입력 음향 신호의 종료 여부를 판단하고, 신호가 종료되지 않았으면 다음 신호 블록에 대한 목적신호 검출을 수행한다.
그리고, 제어부(500)는 복수의 마이크(100a, 100b), 목적신호 정보 입력부(200), 등화기 정보 입력부(300) 및 잡음 제거부(400)의 동작을 제어하는 기능을 수행한다.
이하에는 본 발명의 일 실시예에 따른 잡음 제거 방법에 대해 구체적으로 설명하기로 한다.
도 3은 본 발명의 일 실시예에 따른 잡음 제거 방법을 설명하기 위한 전체적인 흐름도이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 잡음 제거 방법은, 우선 목적 신호의 위치 정보를 입력받은 후(S101), 마이크간의 부정합을 보정하기 위한 등화기의 정보를 입력받는다(S102).
이후에, 단위 시간별로 입력된 다채널 신호 블록에 대해서 목적신호를 추출하는 과정을 수행한다.
즉, 단구간 다채널 신호를 입력받은 후(S103), 시간 지연과 방향에 대한 모호성을 해결하기 위하여 시간영역 주파수 분할 필터링을 수행하여 채널-주파수 밴드 신호를 생성한다(S104).
다음으로, 상기 단계S104에서 생성된 주파수 밴드별 신호에 대해서 채널간 신호 상관도를 이용한 목적신호 추정을 수행한 후(S105), 각 주파수 밴드의 신호 블록에 대해서 학습률을 정한다(S106).
이후에, 상기 단계S106에서 정해진 학습률에 따라 각 주파수 밴드마다 빔포밍을 수행한 후(S107), 전체 주파수 대역의 신호를 합성하기 위해 시간영역 주파수 합성 필터링을 수행한다(S108). 이상의 과정을 통해, 각 주파수 밴드별 목적신호가 추출된다. 즉, 각 주파수 밴드별 빔포밍을 합성하여 시간영역의 목적신호를 복원하면, 잡음이 제거된 목적신호가 추출된다.
최종적으로, 신호 종료 여부를 판단하고(S109), 신호가 종료되지 않았으면 상기 단계S103으로 리턴되어 다음 신호 블록에 대한 목적신호 검출을 수행한다.
이하에는 본 발명의 일 실시예에 따른 잡음 제거 방법에 적용된 각 단계들에 대해서 구체적으로 설명하기로 한다.
본 발명의 일 실시예에 따른 잡음 제거 방법은, 우선 목적신호의 위치 정보를 입력(S101) 받는다.
즉, 목적신호의 위치 정보 입력(S101) 단계에서는, 취득해야 할 목적신호의 위치를 입력받는다. 취득해야 할 목적신호와 목적신호를 수신하는 단말과의 거리가 1m 이하의 근거리 일 때는, 음향신호가 마이크로 들어올 때 직접 경로에 의한 성분이 커서 잔향 성분을 거의 무시할 수 있다. 잔향이 약한 경우에는 2개 이상의 마이크를 사용하는 경우에 각 주파수 성분이 어떤 각도로 수신되었는지 큰 오차 없이 검출이 가능하다.
따라서, 본 발명의 일 실시예와 같이 목적신호의 위치를 선행 정보로 사용하는 경우에는 목적신호의 위치 파악을 위한 훈련 과정이 필요 없다. 즉, 어떤 신호가 들어오는 경우에도 목적신호의 위치 정보를 이용하여 실시간으로 잡음 성분과 목적신호 성분을 주파수 영역에서 분리가 가능하다.
이후에, 등화기 정보 입력 단계(S102)를 거친다. 등화기 정보 입력 단계(S102)에서는 마이크간의 부정합을 보정한다. 음성인식 환경에서 마이크간의 특성의 차이는 피할 수 없고, 이와 함께 마이크로부터 신호를 수신하는 아날로그/디지털(Analog-to-Digital, A/D) 변환기의 특성도 차이가 날 수 있다.
이러한 등화기 정보 입력 단계(S102)에서는 다채널 마이크 및 A/D 변환기의 특성 차이를 주파수 영역에서 보상한다. 후술하는 도 2에서 상세하게 설명하기로 한다. 예컨대, 기준채널이 제1 번이고, 입력채널의 수가 N개일 때, i번째 입력채널의 등화기 구현을 위한 비용 함수를 하기의 수학식 5에 나타내었다.
Figure 112008007490350-PAT00003
여기서, k는 이산 주파수, τ는 시간, T는 총 음성신호 블록의 개수이다. X1(τ,k)=FFT[x1(τ)], Xi(τ,k)=FFT[xi(τ)]이며, FFT[]는 고속 푸리에 변환 함수이다. x1(τ)과 xi(τ)은 채널별 입력신호이다. αik는 채널의 주파수 응답을 보정하기 위한 등화기 계수이다. 상기의 수학식 5를 최적화하면, 하기의 수학식 6을 얻는다.
Figure 112008007490350-PAT00004
도 4는 본 발명의 일 실시예에 필요한 등화기 설계 방법을 구체적으로 설명하기 위한 흐름도이다.
도 4를 참조하면, 우선, 목적신호의 위치 정보를 입력받은 후(S201), 단위 시간별로 단구간 다채널 신호를 입력받는다(S202). 이후, 입력신호가 훈련신호인지 여부를 판단한다(S203). 상기 입력신호가 훈련신호가 아닌 경우에는 상기 단계S202로 리턴되어 다시 단위 시간별 신호를 입력받는다.
그렇지 않고, 상기 입력신호가 훈련신호인 경우에는 채널별 주파수 분석을 수행한 후(S204), 기준채널의 주파수별로 전력을 누적시키고(S205), 채널간의 주파 수별 상관도를 누적시킨다(S206).
그런 다음, 신호입력의 종료 여부를 판단하여(S207), 상기 신호입력이 종료되지 않았으면 상기 단계S202로 리턴되어 다시 단위 시간별 신호를 입력받는다. 그렇지 않고, 상기 신호입력이 종료된 경우에는 누적 상관도와 누적 전력의 비를 계산한다(S208).
이후에, 단위 시간별로 입력된 다채널 신호 블록에 대해서 목적신호를 추출하는 과정을 수행한다.
우선, 단구간 다채널 신호를 입력받은 후(S103), 시간 지연과 방향에 대한 모호성을 해결하기 위한 시간영역 주파수 분할 필터링 단계(S104)를 수행하여 채널 주파수 밴드 신호를 생성한다.
이러한 시간영역 주파수 분할 필터링 단계(S104)에서는, 주파수 영역에서 균등 밴드 분할 필터링 및 다운 샘플링(downsampling)을 수행하여 신호를 분할한다. 예컨대, 다상(Poly-phase) 구조와 IIR 필터를 사용하여 계산량 감축할 수 있다.
즉, 도 5는 본 발명의 일 실시예에 적용된 시간영역 주파수 분할 필터링 방법을 구체적으로 설명하기 위한 흐름도로서, 우선 단구간 신호를 입력받은 후(S301), 등간격 대역 통과 필터링을 수행한다(S302). 이후에, 전체 신호를 M개의 등간격 대역(π/M) 통과 신호로 분할한다. 그러면, (1/M)의 신호로 분할된다(S303).
그런 다음, 주파수 밴드별 다채널 신호에 대해서 채널간 신호 상관도를 이용한 목적신호 추정 단계(S105)를 수행한다.
즉, 도 6은 본 발명의 일 실시예에 적용된 상관도 이용 목적신호 추정 방법을 구체적으로 설명하기 위한 흐름도로서, 우선 QMF 필터뱅크 분석을 통해서 필터 당 N채널, M개의 대역 통과 신호 입력이 발생한다(S401). 이후에, 기준이 되는 마이크를 정하고, 기준 마이크를 제외한 다른 마이크 중 어느 하나를 정하여 하기의 수학식 7과 같이 상호상관도(CorrC)를 추정한다(S402).
Figure 112008007490350-PAT00005
일반적으로 기준 마이크와 가장 멀리 위치한 마이크가 시간 지연이 크기 때문에 입력신호 간의 차이가 커지게 되고, 그 결과 상호상관도가 낮게 나온다.
또한, 입력신호마다 전력 비가 다르기 때문에, 하기의 수학식 8과 같이 표준화 개념에서 기준 마이크의 입력신호의 자기상관도(CorrA)를 구한다(S403).
Figure 112008007490350-PAT00006
그런 다음, 목적신호와 잡음신호를 구분하기 위한 기준은 하기의 수학식 9와 같이, 상기의 수학식 7 및 수학식 8을 통해 구한 상호상관도(CorrC)를 자기상관 도(CorrA)로 나눈 값과 문턱치(Th)를 비교 판단하여 학습률을 조절한다(S404).
Figure 112008007490350-PAT00007
즉, 상호상관도(CorrC)를 자기상관도(CorrA)로 나눈 값이 문턱치(Th)보다 크면, 목적신호로 판단되어 해당하는 밴드에 낮은 학습률을 적용하고, 그렇지 않고 그 값이 문턱치보다 작으면 잡음신호로 판단되어 해당하는 밴드에 높은 학습률을 적용한다.
그 후, 상기 정해진 학습률에 따라 주파수 밴드별 빔포밍을 수행한다(S107). 위와 같은 단계들을 거치며, 입력신호에 대한 각 주파수 밴드별 목적신호가 추출되고, 이후 전체 주파수 대역의 신호를 합성하기 위해 시간영역 주파수 합성 필터링 단계(S108)를 수행한다. 즉, 주파수영역의 빔포밍 결과를 QMF 합성을 통해 시간영역의 목적신호로 복원한다.
이러한 시간영역 주파수 합성 필터링 단계(S108)에서는, 각 밴드별 신호의 업 샘플링(up-sampling) 및 균등 밴드 합성 필터링을 수행한다. 채널별 시간영역 주파수 분할 필터링이 필요한 이유는 신호원의 공간상에서의 모호성을 없앨 수 있기 때문이다. 표본화 주파수를 높이면서 공간상의 모호성을 없애려면 마이크간의 거리는 줄어들어야 한다.
현상적으로 본다면 채널간 시간차를 구하기 위하여 위상 응답은 (-π, π)에 서만 정의되어야 한다. 이것은 디지털 주파수 성분의 신호가 가질 수 있는 시간차가 1 샘플 미만이어야 한다는 뜻과 같다.
본 발명의 일 실시예에 의하면 균등 주파수 밴드의 개수를 증가시킴에 따라 표본화 주파수를 낮출 수 있고, 이에 따라 주어진 마이크간의 간격에 대해서 위상 응답이 (-π, π)가 되도록 하는 조건을 항상 만족시킬 수 있다.
도 7은 본 발명의 일 실시예에 적용된 시간영역 주파수 합성 필터링 방법을 구체적으로 설명하기 위한 흐름도로서, 우선 M개의 대역 통과 신호를 입력받은 후(S501), 각 대역 신호에 대해서 M배의 zero를 삽입한다(S502). 그런 다음, 각 대역 신호에 대해서 등간격 대역(π/M) 통과 필터링을 수행한 후(S503), 각 대역 신호를 합하여(S504), 전체 주파수 대역의 신호를 합성한다.
도 8은 본 발명의 일 실시예에 적용된 다중 위상 QMF 기법을 이용한 주파수 밴드별 신호 분할 및 합성을 개념적으로 나타낸 블록 구성도이다.
이후에, 신호 종료 여부 판단 단계(S109)에서는 신호 입력이 종료되지 않았으면, 상기 단계S103으로 리턴되어 다음 신호 블록에 대한 목적신호 검출을 수행하고, 신호 입력이 종료되었으면 모든 신호처리 과정을 종료한다.
(실시예)
도 9는 본 발명의 일 실시예에 따른 잡음 제거 전/후의 신호를 도시한 그래프로서, 표본화 주파수가 16kHz, 마이크 수가 8개, 마이크간 간격이 4cm, 균등 밴드 분할 수가 8개, 목적 신호원 1개 및 잡음 신호원 1개, 잡음 신호원간의 각도 60 도, 상기의 수학식 7에서 기준 마이크 1번(x1)과 마이크 8번(x8) 사이의 상호상관도(CorrC), SNR 5dB 일 때, 입력신호와 기존 방법에 의한 빔포밍 결과와 본 발명에 의한 빔포밍 결과이다.
즉, 기존 방법에 의한 빔포밍 수행 후 신호 대 잡음 비를 측정한 결과 10.5 dB, 본 발명에 의한 빔포밍 결과 12.8 dB가 되었다. 따라서, 신호 대 잡음 비 이득은 각각 5.5 dB, 7.8 dB가 되었다.
전술한 바와 같이, 본 발명은 빔포밍 기술을 이용한 잡음 제거 장치 및 방법으로서, 상기 빔포밍 기술은 마이크로폰 배열을 이용하여 목적신호와 잡음신호가 동시에 입력될 때, 목적신호만을 추출하는 기술이다.
하지만, 잡음제거 시 목적신호도 함께 제거되기 때문에, 좋은 음질을 얻을 수 없다. 따라서, 목적신호를 잘 추출하는 것이 관건이다. 상기 목적신호의 추출방법으로 입력신호의 상관도 정보를 이용하여 밴드별 학습률을 조절하는 방법을 제안한다. 즉, 밴드별 학습률을 달리하여 잡음제거 성능과 효율을 높이는 이득을 얻을 수 있다.
한편, 본 발명의 실시예에 따른 잡음 제거 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되 는 모든 종류의 기록장치를 포함한다.
예컨대, 컴퓨터가 읽을 수 있는 기록매체로는 롬(ROM), 램(RAM), 시디-롬(CD-ROM), 자기 테이프, 하드디스크, 플로피디스크, 이동식 저장장치, 비휘발성 메모리(Flash Memory), 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함된다.
또한, 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.
전술한 본 발명에 따른 잡음 제거 장치 및 방법에 대한 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명에 속한다.
도 1은 본 발명의 일 실시예에 따른 잡음 제거 장치를 설명하기 위한 개략적인 블록 구성도.
도 2는 본 발명의 일 실시예에 적용된 잡음 제거부를 구체적으로 설명하기 위한 블록 구성도.
도 3은 본 발명의 일 실시예에 따른 잡음 제거 방법을 설명하기 위한 전체적인 흐름도.
도 4는 본 발명의 일 실시예에 필요한 등화기 설계 방법을 구체적으로 설명하기 위한 흐름도.
도 5는 본 발명의 일 실시예에 적용된 시간영역 주파수 분할 필터링 방법을 구체적으로 설명하기 위한 흐름도.
도 6은 본 발명의 일 실시예에 적용된 상관도 이용 목적신호 추정 방법을 구체적으로 설명하기 위한 흐름도.
도 7은 본 발명의 일 실시예에 적용된 시간영역 주파수 합성 필터링 방법을 구체적으로 설명하기 위한 흐름도.
도 8은 본 발명의 일 실시예에 적용된 다중 위상 QMF 기법을 이용한 주파수 밴드별 신호 분할 및 합성을 개념적으로 나타낸 블록 구성도.
도 9는 본 발명의 일 실시예에 따른 잡음 제거 전/후의 신호를 도시한 그래프.

Claims (11)

  1. 음성인식 및 음성 복부호화기를 위한 잡음 제거 방법에 있어서,
    (a) 음성신호인 목적신호의 위치를 선행 정보로 입력받는 단계;
    (b) 복수의 마이크로부터 수신된 다채널 음향신호에 대해 시간영역 주파수 분할 필터링을 수행하는 단계;
    (c) 상기 단계(b)에서 주파수 분할된 신호에 대해 상기 선행 정보를 바탕으로 채널별 신호 상관도를 이용하여 목적신호를 추정하는 단계;
    (d) 각 주파수 밴드의 신호에 대해서 학습률을 조절하는 단계; 및
    (e) 상기 조절된 학습률에 따라 주파수 밴드별 빔포밍을 수행한 후, 각 주파수 밴드별 빔포밍을 합성하여 시간영역의 목적신호를 복원하는 단계를 포함하는 것을 특징으로 하는 잡음 제거 방법.
  2. 제1 항에 있어서,
    상기 단계(a)이후에,
    (a') 상기 다채널 음성신호의 채널간 특성을 보상하기 위해 채널간의 이득차 및 시간차를 이용하는 주파수 영역 등화기 정보를 입력받는 단계를 더 포함하는 것을 특징으로 하는 잡음 제거 방법.
  3. 제2 항에 있어서,
    상기 단계(a')는,
    (a'-1) 상기 수신된 다채널 음향신호가 훈련 신호인지 판단하는 단계;
    (a'-2) 상기 단계(a'-1)에서 수신된 다채널 음향신호가 훈련 신호인 경우, 채널별 주파수 분석을 수행하는 단계;
    (a'-3) 기준 채널의 주파수별로 전력을 누적시킨 후, 채널간의 주파수별로 상관도를 누적시키는 단계;
    (a'-4) 상기 훈련 신호의 입력이 종료되었는지 여부를 판단하는 단계; 및
    (a'-5) 상기 단계(a'-4)에서 훈련 신호의 입력이 종료된 경우, 누적 상관도와 누적 전력의 비를 계산하는 단계를 포함하는 것을 특징으로 하는 잡음 제거 방법.
  4. 제1 항에 있어서,
    상기 단계(b)는,
    상기 수신된 다채널 음향신호를 M개의 등간격 대역(π/M) 통과 신호로 분할하는 것을 특징으로 하는 잡음 제거 방법.
  5. 제1 항에 있어서,
    상기 단계(c)는,
    (c-1) 미리 정해진 기준 마이크를 제외한 다른 마이크 중 어느 하나를 정하여 상호상관도를 추정하는 단계; 및
    (c-2) 상기 기준 마이크의 입력신호에 대한 자기상관도를 추정하는 단계를 포함하는 것을 특징으로 하는 잡음 제거 방법.
  6. 제5 항에 있어서,
    상기 추정된 상호상관도를 자기상관도로 나눈 값과 기 설정된 문턱치를 비교 판단하여 학습률을 조절하는 것을 특징으로 하는 잡음 제거 방법.
  7. 제6 항에 있어서,
    상기 상호상관도를 자기상관도로 나눈 값이 상기 문턱치보다 크면, 목적신호로 판단되어 해당하는 주파수 밴드에 낮은 학습률을 적용하고, 상기 상호상관도를 자기상관도로 나눈 값이 상기 문턱치보다 작으면 잡음신호로 판단되어 해당하는 주파수 밴드에 높은 학습률을 적용하는 것을 특징으로 하는 잡음 제거 방법.
  8. 제1 항에 있어서,
    상기 단계(e)에서, 상기 시간영역 주파수 합성 필터링은,
    M개의 대역 통과 신호를 입력받은 후, 각 대역 신호에 대해서 M배의 zero를 삽입하는 단계; 및
    각 대역 신호에 대해서 등간격 대역(π/M) 통과 필터링을 수행한 후, 각 대역 신호를 합하여 전체 주파수 대역의 신호를 합성하는 단계를 포함하는 것을 특징으로 하는 잡음 제거 방법.
  9. 제1 항 내지 제8 항 중 어느 한 항의 방법을 컴퓨터로 실행시킬 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  10. 음성인식 및 음성 복부호화기를 위한 잡음제거 장치에 있어서,
    음성 및 잡음이 포함된 음향 신호를 수신하는 복수의 마이크;
    음성신호인 목적신호의 위치를 선행 정보로 입력받는 목적신호 정보 입력부;
    상기 복수의 마이크간의 부정합을 보정하기 위한 등화기 정보를 출력하는 등화기 정보 입력부;
    상기 목적신호의 위치 정보 및 등화기 정보를 바탕으로 주파수 밴드별로 채널별 신호 상관도를 이용하여 목적신호를 추정하고, 각 주파수 밴드의 신호에 대해 조절된 학습률에 따라 주파수 밴드별 빔포밍을 수행한 후, 이를 합성하여 잡음이 제거된 목적신호를 검출하는 잡음 제거부; 및
    상기 복수의 마이크, 상기 목적신호 정보 입력부, 상기 등화기 정보 입력부 및 상기 잡음 제거부의 동작을 제어하는 제어부를 포함하는 것을 특징으로 하는 잡음 제거 장치.
  11. 제10 항에 있어서,
    상기 잡음 제거부는,
    상기 음향 신호를 단위 시간 단위의 단구간 다채널 신호 블록으로 나누는 신호 블록 형성부;
    상기 단구간 다채널 신호 블록에 대해서 시간영역에서 주파수 분할 필터링을 수행하는 주파수 분할부;
    주파수 밴드별 신호에 대해서 채널간 신호 상관도를 이용하여 목적신호 추정을 수행하는 목적신호 추정부;
    각 주파수 밴드의 신호에 대해서 학습률을 조절하는 학습률 조절부;
    상기 조절된 학습률에 따라 주파수 밴드별 빔포밍을 수행하여 잡음을 제거하는 잡음 처리부;
    상기 잡음 처리부에서 잡음이 제거된 각 주파수 밴드별 목적신호를 시간영역에서 주파수 합성 필터링을 수행하는 주파수 합성부; 및
    상기 음향 신호의 종료 여부를 판단하는 신호 종료 판단부를 포함하는 것을 특징으로 하는 잡음 제거 장치.
KR1020080009088A 2008-01-29 2008-01-29 잡음 제거 장치 및 방법 KR100940629B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080009088A KR100940629B1 (ko) 2008-01-29 2008-01-29 잡음 제거 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080009088A KR100940629B1 (ko) 2008-01-29 2008-01-29 잡음 제거 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20090083112A true KR20090083112A (ko) 2009-08-03
KR100940629B1 KR100940629B1 (ko) 2010-02-05

Family

ID=41204100

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080009088A KR100940629B1 (ko) 2008-01-29 2008-01-29 잡음 제거 장치 및 방법

Country Status (1)

Country Link
KR (1) KR100940629B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110072923A (ko) * 2009-12-23 2011-06-29 삼성전자주식회사 신호 처리 방법 및 장치
KR101140330B1 (ko) * 2009-12-17 2012-05-03 서울대학교산학협력단 가청주파수 대역 음향통신 송수신에서의 동기화 시스템 및 방법, 그리고 이에 적용되는 장치
WO2014163231A1 (ko) * 2013-04-05 2014-10-09 주식회사 금영 복수의 음원이 출력되는 환경하에서 음성 인식에 이용될 음성 신호의 추출 방법 및 음성 신호의 추출 장치
CN107452395A (zh) * 2017-08-23 2017-12-08 深圳创维-Rgb电子有限公司 一种语音信号回声消除装置及电视机
CN110475181A (zh) * 2019-08-16 2019-11-19 北京百度网讯科技有限公司 设备配置方法、装置、设备和存储介质
WO2021112391A1 (ko) * 2019-12-06 2021-06-10 삼성전자(주) 전자장치 및 그 제어방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100917460B1 (ko) * 2007-08-07 2009-09-14 한국과학기술원 잡음제거 장치 및 방법

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101140330B1 (ko) * 2009-12-17 2012-05-03 서울대학교산학협력단 가청주파수 대역 음향통신 송수신에서의 동기화 시스템 및 방법, 그리고 이에 적용되는 장치
US8897474B2 (en) 2009-12-17 2014-11-25 Sk Telecom Co., Ltd. Synchronization system and method for transmission and reception in audible frequency range-based sound communication, and apparatus applied thereto
KR20110072923A (ko) * 2009-12-23 2011-06-29 삼성전자주식회사 신호 처리 방법 및 장치
WO2014163231A1 (ko) * 2013-04-05 2014-10-09 주식회사 금영 복수의 음원이 출력되는 환경하에서 음성 인식에 이용될 음성 신호의 추출 방법 및 음성 신호의 추출 장치
CN107452395A (zh) * 2017-08-23 2017-12-08 深圳创维-Rgb电子有限公司 一种语音信号回声消除装置及电视机
CN110475181A (zh) * 2019-08-16 2019-11-19 北京百度网讯科技有限公司 设备配置方法、装置、设备和存储介质
CN110475181B (zh) * 2019-08-16 2021-04-30 北京百度网讯科技有限公司 设备配置方法、装置、设备和存储介质
WO2021112391A1 (ko) * 2019-12-06 2021-06-10 삼성전자(주) 전자장치 및 그 제어방법

Also Published As

Publication number Publication date
KR100940629B1 (ko) 2010-02-05

Similar Documents

Publication Publication Date Title
CN110085248B (zh) 个人通信中降噪和回波消除时的噪声估计
US10079026B1 (en) Spatially-controlled noise reduction for headsets with variable microphone array orientation
KR101597752B1 (ko) 잡음 추정 장치 및 방법과, 이를 이용한 잡음 감소 장치
US9984702B2 (en) Extraction of reverberant sound using microphone arrays
US7158933B2 (en) Multi-channel speech enhancement system and method based on psychoacoustic masking effects
US9558755B1 (en) Noise suppression assisted automatic speech recognition
EP2196988B1 (en) Determination of the coherence of audio signals
CN101510426B (zh) 一种噪声消除方法及系统
US7386135B2 (en) Cardioid beam with a desired null based acoustic devices, systems and methods
EP2375410B1 (en) A spatial audio processor and a method for providing spatial parameters based on an acoustic input signal
KR101210313B1 (ko) 음성 향상을 위해 마이크로폰 사이의 레벨 차이를 활용하는시스템 및 방법
CN110100457A (zh) 基于噪声时变环境的加权预测误差的在线去混响算法
US8682006B1 (en) Noise suppression based on null coherence
KR100940629B1 (ko) 잡음 제거 장치 및 방법
JP2002530922A (ja) 信号を処理する装置と方法
CN108172231A (zh) 一种基于卡尔曼滤波的去混响方法及系统
WO2007123047A1 (ja) 適応アレイ制御装置、方法、プログラム、及びこれを利用した適応アレイ処理装置、方法、プログラム
KR100917460B1 (ko) 잡음제거 장치 및 방법
CN110111802B (zh) 基于卡尔曼滤波的自适应去混响方法
CN110169082B (zh) 用于组合音频信号输出的方法和装置、及计算机可读介质
Jin et al. Multi-channel noise reduction for hands-free voice communication on mobile phones
CN112363112B (zh) 一种基于线性麦克风阵列的声源定位方法及装置
KR101811635B1 (ko) 스테레오 채널 잡음 제거 장치 및 방법
KR101068666B1 (ko) 잡음 환경에서 적응적인 잡음 제거도에 기초한 잡음 제거 방법 및 장치
CN100495537C (zh) 强鲁棒性语音分离方法

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130108

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131231

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161227

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180102

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee