KR20070109156A - 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법 - Google Patents

윈도우 분리 직교 모델을 이용한 잡음신호 분리방법 Download PDF

Info

Publication number
KR20070109156A
KR20070109156A KR1020060041732A KR20060041732A KR20070109156A KR 20070109156 A KR20070109156 A KR 20070109156A KR 1020060041732 A KR1020060041732 A KR 1020060041732A KR 20060041732 A KR20060041732 A KR 20060041732A KR 20070109156 A KR20070109156 A KR 20070109156A
Authority
KR
South Korea
Prior art keywords
signal
input
sound sources
sound source
noise
Prior art date
Application number
KR1020060041732A
Other languages
English (en)
Other versions
KR101184394B1 (ko
Inventor
이수정
최갑근
김순협
Original Assignee
에이펫(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이펫(주) filed Critical 에이펫(주)
Priority to KR1020060041732A priority Critical patent/KR101184394B1/ko
Publication of KR20070109156A publication Critical patent/KR20070109156A/ko
Application granted granted Critical
Publication of KR101184394B1 publication Critical patent/KR101184394B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

본 발명의 실시예에 의한 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법은, 적어도 2개 이상의 마이크로폰에 다수의 음원이 혼합되어 입력되는 단계와; 상기 마이크로폰에 수신되는 신호에 대하여 고속 퓨리에 변환이 적용되는 단계와; 상기 고속 퓨리에 변환을 통해 상기 각 마이크로폰에 수신되는 신호에 대한 2차원 시간-주파수 축의 스펙트로그램을 통해 각각의 음원에 대한 믹싱 파라미터가 구해지는 단계와; 상기 믹싱 파라미터의 히스토그램을 통해 혼합 입력되는 각각의 음원에서 하나의 최고 피크(peak)값이 도출되는 단계와; 이진 마스크 함수를 상기 시간-주파수 영역의 한 음원과 각각 대응시키고, 역 고속 퓨리에 변환 및 OLA(OverLab and Add)를 이용하여 상기 혼합되어 입력되는 다수의 음원이 각각 분리되는 단계가 포함됨을 특징으로 한다.
이와 같은 본 발명에 의하면, 음성신호에서 잡음신호를 분리함에 있어 주파수 영역을 이용함으로써, 기존의 암묵적 신호분리 방법에 비해 연산량과 연산속도에서 향상된 성능을 얻을 수 있으며, 신호대잡음비(SNR) 성능도 향상된다는 장점이 있다.

Description

윈도우 분리 직교 모델을 이용한 잡음신호 분리방법{method of noise source separation using Window-Disjoint Orthogonal model}
도 1은 일반적인 음성인식기의 개략 구성도.
도 2는 종래의 암묵신호분리에 의해 잡음제거 후 음성인식기의 블록 구성도.
도 3은 본 발명의 실시예에 의한 잡음 신호 분리 방법을 설명하기 위한 도면.
도 4는 도 3에 도시된 실시예에 대응되는 스펙트로그램.
도 5는 도 4에 도시된 스펙트로그램에서 도출된 믹싱 파라미터의 히스토그램.
도 6은 본 발명에 의해 구현된 실험 결과를 나타내는 그래프.
본 발명은 음성 인식장치에 관한 것으로, 특히 음성 인식의 전처리 단계에서 윈도우 분리 직교 모델을 이용하여 음성신호로부터 잡음을 분리하는 잡음 신호 분리방법에 관한 것이다.
일반적으로 음성인식장치는 도 1에 도시된 바와 같이 크게 특징추출부(11)과 추출된 음성특징에 따라 인식하는 음성인식부(12)로 구성된다. 즉, 입력된 음성신호는 인식에 적합한 형태의 특징을 추출하는 단계를 거친 후, 그 결과를 이용하여 입력된 음성을 인식하게 된다.
여기서, 특징추출부(11)에 의하여 음성의 특징을 추출하는 여러 가지 방법 중 'MFCC'(Mel-Frequency Cepstrum Coefficient) 또는 'PLPCC'(Perceptual Linear Prediction Cepstrum Coefficient)가 주로 사용되고 있다.
또한, 음성인식부(12)는 'HMM'(Hidden Markov Model), 'DTW'(Dynamic Time Warping) 또는 신경회로망 등의 방법이 많이 사용된다. 그러나, 실제 사용환경에서는 음성인식 성능이 저하되는 현상이 나타나는데, 그 이유는 실제환경에서 음성이 입력될 때 어느 정도의 잡음이 섞여 들어오기 때문이다.
즉, 음성인식은 음성신호 입력시 함께 들어오는 배경잡음과 채널잡음, 잔향 등 다양한 노이즈에 의해 그 인식 성능이 현저히 떨어져 실험공간이 아닌 실제 상황에서 사용하기에 어려운 점이 많았으며, 이에 상기 문제점을 극복하려는 노력들이 이어져 왔다.
이러한 배경잡음을 제거하기 위해 특정 주파수 대역을 제거하는 주파수 차감법, 포만트 트랙킹 등을 사용하여 성능을 향상시키려는 시도가 있었으나, 이러한 방법들은 노이즈 성분의 변화가 심하고 다양한 노이즈가 존재하는 실제 상황에서는 인식 성능에 크게 도움이 되지 못하는 단점이 있다.
이에 최근 들어서는 잡음이 심한 실제 환경에서 음성인식 성능을 향상시키기 위해 음성 신호가 입력되기 전에 상기 음성신호와 함께 입력되는 잡음을 미리 제거 하는 과정이 필수적으로 요청되고 있다.
이와 같은 잡음을 미리 제거하는 기법으로 암묵적 신호분리(Blind Source Separation) 방법이 사용되고 있다. 상기 암묵적 신호분리방법은 일반적으로 'ICA'(Independent Component Analysis) 방법에 의하여 학습된다.
상기 ICA 방법은 음성신호 및 잡음신호들이 혼합되어 입력되는 입력신호들 즉, 각 신호원 사이에 독립적인 특성이 존재한다는 가정 하에 마이크로폰 어레이 시스템을 이용하여 이전사실에 대한 정보 없이 상기 입력신호들로부터 음성신호를 분리할 수 있도록 하는 알고리즘이다.
즉, 상기 ICA 방법은 상기 음성신호 분리를 위해 필요한 분리 매트릭스를 구하기 위해 혼합 매트릭스의 역행렬을 찾는 것을 그 목적으로 하며, 이 경우 입력되는 음원의 수가 상기 혼합 매트릭스의 수와 같아야만 그 역행렬 계산이 가능하다는 단점이 있다.
도 2는 종래 기술에 따른 암묵적 신호분리를 이용한 잡음제거 후 음성인식장치의 블록 구성도로서, 이는 음성신호 또는 잡음신호들이 혼합되어 들어오는 입력신호들로부터 상호 독립적인 신호들을 추출하는 방식으로 혼합되기 전의 신호들을 분리 해내는 방법이다.
즉, 다수의 입력된 음성신호와 잡음신호의 혼합신호들이 입력되고, 암묵신호 분리기(21)에서 상기 입력신호로부터 잡음신호와 음성신호를 분리하여 출력함으로써 음성인식기(22)를 통해 잡음이 분리된 음성신호만을 사용하여 음성인식을 수행하게 된다.
그러나, 이와 같은 종래기술에 따른 음성인식장치는 혼합되기 전 신호원의 수가 혼합된 후 입력장치를 통해 입력되는 신호의 수와 같아야 한다는 단점이 있다. 또한, 이 경우 분리되는 신호의 수는 신호원의 수와 같으며, 분리된 신호들 중 어느 것이 어떤 신호원에 해당하는지를 알 수 없다는 문제가 있다.
즉, 분리된 신호들 중 어느 것을 인식 대상으로 하여 음성인식기에 입력해야 할 지를 판단하지 못하는 문제점이 있었다. 따라서, 모든 분리된 신호들을 음성인식기에 입력시켜 인식과정을 거쳐야 한다. 만약, 차량운행 환경에서 오디오 기기가 켜져 있을 경우에는 암묵적 신호 분리된 신호의 수가 더 늘어나므로 음성인식기에 입력시킬 분리된 신호의 수도 그 만큼 늘어나게 되는 문제점이 있다.
본 발명은 음성 인식의 전처리 단계에서 음성신호로부터 잡음을 분리함에 있어, 입력되는 음성신호가 주파수 영역에서 서로 독립적인 무상관 관계임을 이용하여 기존의 ICA 방법이 아닌 윈도우 분리 직교(Window-Disjoint Orthogonal) 방법을 통해 음성신호 및 잡음신호가 혼합된 혼합신호를 분할하여 나타내고, 이를 통해 원래의 음성신호를 추출토록 하는 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법을 제공함에 그 목적이 있다.
상기 목적을 달성하기 위하여 본 발명의 실시예에 의한 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법은, 적어도 2개 이상의 마이크로폰에 다수의 음원이 혼합되어 입력되는 단계와; 상기 마이크로폰에 수신되는 신호에 대하여 고속 퓨리 에 변환이 적용되는 단계와; 상기 고속 퓨리에 변환을 통해 상기 각 마이크로폰에 수신되는 신호에 대한 2차원 시간-주파수 축의 스펙트로그램을 통해 각각의 음원에 대한 믹싱 파라미터가 구해지는 단계와; 상기 믹싱 파라미터의 히스토그램을 통해 혼합 입력되는 각각의 음원에서 하나의 최고 피크(peak)값이 도출되는 단계와; 이진 마스크 함수를 상기 시간-주파수 영역의 한 음원과 각각 대응시키고, 역 고속 퓨리에 변환 및 OLA(OverLab and Add)를 이용하여 상기 혼합되어 입력되는 다수의 음원이 각각 분리되는 단계가 포함됨을 특징으로 한다.
여기서, 상기 음원의 수는 상기 마이크로폰의 갯수보다 같거나 많음을 특징으로 한다.
또한, 상기 음원은 각각 주파수 영역에서 서로 독립적인 무상관 관계이고, 상기 각각의 음원은 윈도우 분리 직교(WDO) 모델로서
Figure 112006032552928-PAT00001
이고,
Figure 112006032552928-PAT00002
Figure 112006032552928-PAT00003
임을 특징으로 한다.
또한, 상기 믹싱 파라미터의 히스토그램에서 각 음원에 대해 한 개의 피크 점을 구하기 위해 상기 히스토그램을 스무드시킴을 특징으로 한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세히 설명하도록 한다.
본 발명의 설명에 앞서 종래의 암묵적 신호분리(Blind Source Separation, BBS) 방법에 대해 먼저 설명하도록 한다.
M개의 독립적인 무상관 신호를 고려할 때, 원래 신호 s(t) ∈ RM 이고, 상기 원래 신호들은 각각 다른 위치에 있으며, 이에 마이크로폰에 입력되는 신호 x(t) ∈ RN 이다.
Figure 112006032552928-PAT00004
상기 수학식 1에서 Si는 i번째 음원으로부터 들어온 신호이고, Xj는 j번째 마이크로폰에 의해 수집된 신호이다. 또한, Aji는 음원 i에서 마이크로폰 j까지의 P점 임펄스 응답(impulse reponse)으로써 음향학적 주위 환경을 나타낸다.
상기 수학식 1은 행렬 이산 퓨리에 변환방법을 적용하여 수학식 2와 같이 좀 더 간단히 나타낼 수 있다.
Figure 112006032552928-PAT00005
이에 콘볼루션(Convolution)을 이용한 신호 분리 방법 즉, 종래의 Convoutive BBS를 이용한 신호 분리 방법은
Figure 112006032552928-PAT00006
에 대한 역 필터
Figure 112006032552928-PAT00007
를 구하는 것이다. 즉, 하기된 수학식 3에 기술된 식을 통해 상기 역필터를 구할 수 있게 된다.
Figure 112006032552928-PAT00008
이때, 상기 P는 임의의 순환행렬을 나타내고, S(w)는 각 주파수에 대한 스케일링을 나타내는 대각행렬이다.
이와 같은 종래의 Convoutive BBS는 각 주파수 대역에서의 스케일링과 순환에 있어서, 마이크로폰의 갯수가 증가할수록 상기 순환행렬의 복잡도가 증가하여 시스템 성능이 저하된다는 단점이 있다.
본 발명은 이와 같은 순환문제를 극복하기 위한 것으로 음성 인식의 전처리 단계에서 음성신호로부터 잡음을 분리함에 있어, 입력되는 음성신호가 주파수 영역에서 서로 독립적인 무상관 관계임을 이용하여 기존의 ICA 방법이 아닌 윈도우 분리 직교(Window-Disjoint Orthogonal) 방법을 통해 음성신호 및 잡음신호가 혼합된 혼합신호를 분할하여 나타내고, 이를 통해 원래의 음성신호를 추출토록 함을 특징으로 한다.
도 3은 본 발명의 실시예에 의한 잡음 신호 분리 방법을 설명하기 위한 도면이다.
즉, 도 3은 다중 음원(다수의 입력신호)이 입력되는 2채널 마이크로폰을 그 예로 설명하고 있으나, 이는 본 발명이 적용되는 하나의 실시예에 불과한 것으로, 본 발명이 상기 예에 한정되지 아니한다.
본 발명에 의한 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법은, 입력 되는 음성신호가 주파수 영역에서 서로 독립적인 무상관 관계임을 이용하는 것으로, 앞서 설명한 Convolutive BBS보다 연산량이 탁월하게 우수하며, 또한, 도 3에 도시된 바와 같이 음원의 수가 믹싱(mixing) 매트릭스 보다 많아도 사용이 가능하기 때문에 실제 상황에서 보다 유리하게 적용할 수 있다.
즉, 본 발명에 의할 경우 혼합되기 전 음원의 수가 혼합된 후 입력장치를 통해 입력되는 신호의 수와 같아야 한다는 종래의 단점을 극복할 수 있게 되는 것이다.
도 3에 도시된 바와 같이, 2개의 마이크로폰을 이용하여 다수의 음원 즉, 입력신호를 입력받는 경우, 상기 제 1 및 제 2 마이크로폰은 위치가 분리되어 상기 다수의 입력신호를 입력받는다.
상기 제 1 마이크로폰에 입력되는 신호(
Figure 112006032552928-PAT00009
) 및 제 2 마이크로폰에 입력되는 신호(
Figure 112006032552928-PAT00010
)는 하기된 수학식 4와 같다.
Figure 112006032552928-PAT00011
Figure 112006032552928-PAT00012
여기서, 상기
Figure 112006032552928-PAT00013
는 상기 마이크로폰으로 입력되는 다수의 음원 즉, 다수의 입력신호를 나타내고, j번째 신호에 대한
Figure 112006032552928-PAT00014
는 제 1 마이크로폰에 대한 제 2 마이크로폰의 상대적인 진폭(amplitude)을 나타낸다. 즉, 거리에 따른 신호감쇠로 생각할 수 있다. 또한, 상기
Figure 112006032552928-PAT00015
는 제 1 및 제 2 마이크로폰의 시간 지연이다. 단, 상기 마이크로폰에 입력되는 입력신호들은 실내 공간의 임펄스 응답(impulse response)이 없는 것으로 가정한다.
이에 본 발명의 제 1 단계는 제 1 및 제 2 마이크로폰에서 K개의 신호를 검출하고, j번째 음원과 일치하는
Figure 112006032552928-PAT00016
Figure 112006032552928-PAT00017
값을 구한다. 여기서, 시간지연의 조절없이 여러 입력신호에 대한 진폭 패닝(amplitude panning)을 고려하는 두 개의 스테레오 채널인 경우라면, 오디오 믹싱 콘솔은 상기 진폭(amplitude)과 지연(delay)을 조절하는 기능을 지원하지 않기 때문에 시간지연 계수인
Figure 112006032552928-PAT00018
를 생략할 수 있다.
다음으로 상기 각각의 입력신호 S를 윈도우 분리 직교(Window-Disjoint Orthogonal) 모델로 가정하여 상기 제 1 마이크로폰에 입력되는 신호(
Figure 112006032552928-PAT00019
) 및 제 2 마이크로폰에 입력되는 신호(
Figure 112006032552928-PAT00020
)에 대해 고속 퓨리에 변환(FFT)를 적용한다.
즉, 본 발명은 상기 각각의 입력신호가 주파수 영역에서 서로 독립적인 무상 관 관계임을 이용하는 것으로 이를 통해 기존의 Convolutive BBS보다 월등히 우수한 연산량을 처리하고, 최초 입력되는 입력신호의 수와 상기 마이크로폰의 갯수가 같아야 한다는 종래의 단점을 극복할 수 있게 된다.
즉, 상기 각각의 입력신호는 윈도우 분리 직교 모델로서
Figure 112006032552928-PAT00021
이고,
Figure 112006032552928-PAT00022
Figure 112006032552928-PAT00023
이다.
수학식 5는 제 1 마이크로폰에 입력되는 신호(
Figure 112006032552928-PAT00024
) 및 제 2 마이크로폰에 입력되는 신호(
Figure 112006032552928-PAT00025
)에 대해 고속 퓨리에 변환(FFT)를 적용한 결과를 나타낸다. 즉, 하기된
Figure 112006032552928-PAT00026
Figure 112006032552928-PAT00027
는 가중된
Figure 112006032552928-PAT00028
Figure 112006032552928-PAT00029
의 윈도우 함수에 고속 퓨리에 변환(FFT)으로 얻어진다.
Figure 112006032552928-PAT00030
Figure 112006032552928-PAT00031
여기서, k는 주파수 색인, l은 시간 색인이며, L은 FFT의 길이를 나타낸다.
도 4는 도 3에 도시된 실시예에 대응되는 스펙트로그램이다.
즉, 제 1 마이크로폰에 입력되는 신호(
Figure 112006032552928-PAT00032
) 및 제 2 마이크로폰에 입력되는 신호(
Figure 112006032552928-PAT00033
)에 대응되는 2차원 시간-주파수 축의 스펙트로그램을 나타낸다.
본 발명의 경우 각각의 입력신호가 WDO 모델임을 가정하는 것이므로, 도 4에 도시된 바와 같이 상기 각각의 입력신호는 스펙트로그램 상에서 즉, 시간과 주파수축을 중심으로 각 점에 해당하는 요소는 단지 하나만 존재하게 된다. 이는 상기 각각의 입력신호가 주파수 영역에서 서로 독립적인 무상관 관계이기 때문이다.
다음으로 상기 모든 스펙트로그램 인덱스(k,l)에 대하여
Figure 112006032552928-PAT00034
Figure 112006032552928-PAT00035
를 계산하면 수학식 6과 같이 표현할 수 있다.
Figure 112006032552928-PAT00036
시간-주파수 영역에 관한 모든 점에 대한 믹싱(mixing) 파라미터를 계산하게 되면, 이 후 상기 믹싱 파라미터의 히스토그램 h(α,δ)를 얻을 수 있다.
본 발명의 실시예의 경우 제 1 및 제 2 마이크로폰 중간에 위치한 음원은 상대적인 진폭 값인
Figure 112006032552928-PAT00037
=1 이고, 지연된 값인
Figure 112006032552928-PAT00038
=0 이다. 중심에 위치한 원래의 히스토그δ램을 구하기 위해 진폭 파라미터를 정의하면, 수학식 7과 같다.
⌒a(k,l)=a(k,l)-1/a(k,l)
상기 이산 히스토그램에 대한 파라미터 a(k,l)과 δ(k,l)는 양자화 에러가 포함된 양자화값을 가진다. 그에 따라 가중치 히스토그램 h(α,δ)는 모든 (k,l) 포인트에 대해 계산된 포인트인
Figure 112006032552928-PAT00039
에 따라 추가 신호 파워에 의해 계산되어 질 수 있다.
도 5는 도 4에 도시된 스펙트로그램에서 도출된 믹싱 파라미터의 히스토그램이다.
단, 도 5에서는 원래(original)의 히스토그램과 스무드(smooth)된 히스토그램이 도시되어 있으며, 상기 스무드된 히스토그램은 각각의 음원에서 하나의 최고 피크(peak)값을 얻기 위해 도출된 것이다.
즉, 상기 믹싱 파라미터의 히스토그램 즉, 모든 음원 신호의 히스토그램에서 피크값을 구하며, 각 음원에 대해 한 개의 피크 점을 구하기 위해 상기 원래의 히스토그램을 스무드시킨다.
다음으로는 실시간 처리를 위한 자동 피크 검출이 수행되며, 최대 피크 값의 기울기를 결정하기 위한 계산 방법은 다음 수학식 8의 조건을 따른다.
Figure 112006032552928-PAT00040
즉, 상기 수학식 8의 조건을 만족하는 local maxima를 기울값으로 구할 수 있다.
마지막으로 상기 믹싱된 신호로부터 최초 음원 즉, 입력신호를 검출한다.
이는 믹싱 파라미터
Figure 112006032552928-PAT00041
Figure 112006032552928-PAT00042
를 알고 있을 때, 믹싱 음원에 대한 분리가 가능하다. 기본적인 개념은 믹싱 신호의 하나의 소스인 j번째 소스에 대응하는 시간 주파수 영역 (k,l)의 각각의 포인트에 j번째 소스를 사상시키는 것이다.
따라서, j번째 소스에 따른 각 포인트에 대한 시간 주파수 영역을 검사할 수 있다.
각각의 포인트에 대해 기본적으로 다음 수학식 9를 가정하면,
Figure 112006032552928-PAT00043
Figure 112006032552928-PAT00044
여기서,
Figure 112006032552928-PAT00045
Figure 112006032552928-PAT00046
는 반사, 회절, 간섭 등에 의한 노이즈이며, 최대 우도 추정은 각각의 시간 주파수에 대한 음원으로부터 유도되며 이미 추정된 믹싱 파라미터
Figure 112006032552928-PAT00047
Figure 112006032552928-PAT00048
에 기반한다.
각 음원 j와 음원 (k,l)에 대해 우도함수를 다음의 수학식 10과 같이 계산할 수 있다.
Figure 112006032552928-PAT00049
상기 수학식 10을 이용하여 이진 마스크 함수
Figure 112006032552928-PAT00050
를 시간 주파수 영역의 한 음원과 각각 대응시킬 수 있으며, 마지막으로 역 고속 퓨리에 변환(Inverse FFT) 및 OLA(OverLab and Add)를 이용하여 모든 음원
Figure 112006032552928-PAT00051
분리시킴으로써, 모든 입력 신호를 구할 수 있다.
도 6은 본 발명에 의해 구현된 실험 결과를 나타내는 그래프이다.
실험에 사용된 음성과 잡음은 16khz 표본화 되어 있고, 16비트로 양자화 되었으며, 표본의 길이는 5000샘플이다. 그리고, 음성은 실제 남자 2명의 목소리를 선택하여 사용하였으며, 잡음원으로는 임의로 발생시킨 가우시안과 음악소리를 사용하였다.
도 6에 도시된 바와 같이 본 발명에 의할 경우 원음과 가우시안 잡음을 혼합하였을 때 SNR 6dB 정도의 신호대 잡음비 향상을 얻을 수 있었고, 2명의 녹음된 화자(speaker)의 목소리는 거의 완벽하게 분리하였다. 단, 상기 실험에서는 음성이외의 신호들이 하나의 잡음원으로 간주되어 어떠한 채널을 통해 제 1 및 제 2 마이크로폰에 도달한다고 가정하였다.
이와 같은 본 발명에 의하면, 음성신호에서 잡음신호를 분리함에 있어 주파 수 영역을 이용함으로써, 기존의 암묵적 신호분리 방법에 비해 연산량과 연산속도에서 향상된 성능을 얻을 수 있으며, 신호대잡음비(SNR) 성능도 향상된다는 장점이 있다.
이상 설명한 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의하여 정하여져야만 한다.

Claims (5)

  1. 적어도 2개 이상의 마이크로폰에 다수의 음원이 혼합되어 입력되는 단계와,
    상기 마이크로폰에 수신되는 신호에 대하여 고속 퓨리에 변환이 적용되는 단계와;
    상기 고속 퓨리에 변환을 통해 상기 각 마이크로폰에 수신되는 신호에 대한 2차원 시간-주파수 축의 스펙트로그램을 통해 각각의 음원에 대한 믹싱 파라미터가 구해지는 단계와;
    상기 믹싱 파라미터의 히스토그램을 통해 혼합 입력되는 각각의 음원에서 하나의 최고 피크(peak)값이 도출되는 단계와;
    이진 마스크 함수를 상기 시간-주파수 영역의 한 음원과 각각 대응시키고, 역 고속 퓨리에 변환 및 OLA(OverLab and Add)를 이용하여 상기 혼합되어 입력되는 다수의 음원이 각각 분리되는 단계가 포함됨을 특징으로 하는 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법.
  2. 제 1항에 있어서,
    상기 음원의 수는 상기 마이크로폰의 갯수보다 같거나 많음을 특징으로 하는 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법.
  3. 제 1항에 있어서,
    상기 음원은 각각 주파수 영역에서 서로 독립적인 무상관 관계임을 특징으로 하는 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법.
  4. 제 3항에 있어서,
    상기 각각의 음원은 윈도우 분리 직교(WDO) 모델로서
    Figure 112006032552928-PAT00052
    이고,
    Figure 112006032552928-PAT00053
    Figure 112006032552928-PAT00054
    임을 특징으로 하는 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법.
  5. 제 1항에 있어서,
    상기 믹싱 파라미터의 히스토그램에서 각 음원에 대해 한 개의 피크 점을 구하기 위해 상기 히스토그램을 스무드시킴을 특징으로 하는 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법.
KR1020060041732A 2006-05-10 2006-05-10 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법 KR101184394B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060041732A KR101184394B1 (ko) 2006-05-10 2006-05-10 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060041732A KR101184394B1 (ko) 2006-05-10 2006-05-10 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법

Publications (2)

Publication Number Publication Date
KR20070109156A true KR20070109156A (ko) 2007-11-15
KR101184394B1 KR101184394B1 (ko) 2012-09-20

Family

ID=39063707

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060041732A KR101184394B1 (ko) 2006-05-10 2006-05-10 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법

Country Status (1)

Country Link
KR (1) KR101184394B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101280253B1 (ko) * 2008-12-22 2013-07-05 한국전자통신연구원 음원 분리 방법 및 그 장치
CN110827849A (zh) * 2019-11-11 2020-02-21 广州国音智能科技有限公司 数据建库的人声分离方法、装置、终端及可读存储介质
CN113077808A (zh) * 2021-03-22 2021-07-06 北京搜狗科技发展有限公司 一种语音处理方法、装置和用于语音处理的装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006510069A (ja) 2002-12-11 2006-03-23 ソフトマックス,インク 改良型独立成分分析を使用する音声処理ためのシステムおよび方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101280253B1 (ko) * 2008-12-22 2013-07-05 한국전자통신연구원 음원 분리 방법 및 그 장치
CN110827849A (zh) * 2019-11-11 2020-02-21 广州国音智能科技有限公司 数据建库的人声分离方法、装置、终端及可读存储介质
CN113077808A (zh) * 2021-03-22 2021-07-06 北京搜狗科技发展有限公司 一种语音处理方法、装置和用于语音处理的装置
CN113077808B (zh) * 2021-03-22 2024-04-26 北京搜狗科技发展有限公司 一种语音处理方法、装置和用于语音处理的装置

Also Published As

Publication number Publication date
KR101184394B1 (ko) 2012-09-20

Similar Documents

Publication Publication Date Title
Graf et al. Features for voice activity detection: a comparative analysis
EP3411876B1 (en) Babble noise suppression
CN110970053A (zh) 一种基于深度聚类的多通道与说话人无关语音分离方法
WO2017108097A1 (en) Localization algorithm for sound sources with known statistics
EP1794746A2 (en) Method of training a robust speaker-independent speech recognition system with speaker-dependent expressions and robust speaker-dependent speech recognition system
US9792898B2 (en) Concurrent segmentation of multiple similar vocalizations
Al-Karawi et al. Early reflection detection using autocorrelation to improve robustness of speaker verification in reverberant conditions
Garg et al. A comparative study of noise reduction techniques for automatic speech recognition systems
KR101253610B1 (ko) 사용자 음성을 이용한 위치 추적 장치 및 그 방법
Wang et al. Count and separate: Incorporating speaker counting for continuous speaker separation
Zhang et al. Distant-talking speaker identification by generalized spectral subtraction-based dereverberation and its efficient computation
Al-Karawi et al. Model selection toward robustness speaker verification in reverberant conditions
CN112053702A (zh) 一种语音处理的方法、装置及电子设备
EP3847645B1 (en) Determining a room response of a desired source in a reverberant environment
KR101184394B1 (ko) 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법
Masuyama et al. Consistency-aware multi-channel speech enhancement using deep neural networks
Pirhosseinloo et al. A new feature set for masking-based monaural speech separation
Zhao et al. Time-Domain Target-Speaker Speech Separation with Waveform-Based Speaker Embedding.
KR20030010432A (ko) 잡음환경에서의 음성인식장치
Sose et al. Sound Source Separation Using Neural Network
WO2021021683A1 (en) Method and apparatus for normalizing features extracted from audio data for signal recognition or modification
Jiang et al. Identification of a distant speaker and its robustness
Alam et al. CRIM's Speech Recognition System for the 4th CHIME Challenge
RU2807170C2 (ru) Детектор диалогов
Fan et al. Power-normalized PLP (PNPLP) feature for robust speech recognition

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160905

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170904

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190904

Year of fee payment: 8