KR20180038219A - 심화 신경망을 이용한 시간 및 주파수 간 상관도 기반의 음성 검출기 및 음성 검출 방법 - Google Patents

심화 신경망을 이용한 시간 및 주파수 간 상관도 기반의 음성 검출기 및 음성 검출 방법 Download PDF

Info

Publication number
KR20180038219A
KR20180038219A KR1020160129031A KR20160129031A KR20180038219A KR 20180038219 A KR20180038219 A KR 20180038219A KR 1020160129031 A KR1020160129031 A KR 1020160129031A KR 20160129031 A KR20160129031 A KR 20160129031A KR 20180038219 A KR20180038219 A KR 20180038219A
Authority
KR
South Korea
Prior art keywords
voice
feature vector
vector
speech
frequency
Prior art date
Application number
KR1020160129031A
Other languages
English (en)
Other versions
KR101877127B1 (ko
Inventor
장준혁
심재성
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020160129031A priority Critical patent/KR101877127B1/ko
Publication of KR20180038219A publication Critical patent/KR20180038219A/ko
Application granted granted Critical
Publication of KR101877127B1 publication Critical patent/KR101877127B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Telephonic Communication Services (AREA)
  • Complex Calculations (AREA)

Abstract

본 발명은 음성 검출기 및 음성 검출 방법에 관한 것으로, 보다 구체적으로는 시간 및 주파수 간의 상관도를 바탕으로 심화 신경망을 이용한 음성 검출기 및 음성 검출 방법에 관한 것이다. 이와 밀접한 관련이 있는 기술 분야는 무선 음성통신 기술, 인터넷 망을 이용한 실시간 음성 전송, 음성인식, 음성 코덱 등의 분야에서 사용되고 있다. 본 발명의 기술은 음성통신 단말기, 인터넷 망 음성통화 서비스, 모바일 인터넷 망 음성통화 서비스, 음성인식 어플리케이션, 스마트폰 블루투스 통신 시스템, 음성 향상 시스템, 무선 통신 시스템 등에 적용 가능하다.

Description

심화 신경망을 이용한 시간 및 주파수 간 상관도 기반의 음성 검출기 및 음성 검출 방법{Apparatus and Method for detecting voice based on correlation between time and frequency using deep neural network}
본 발명은 음성 검출기 및 음성 검출 방법에 관한 것으로, 보다 구체적으로는 시간 및 주파수 간의 상관도를 바탕으로 심화 신경망을 이용한 음성 검출기 및 음성 검출 방법에 관한 것이다. 이와 밀접한 관련이 있는 기술 분야는 무선 음성통신 기술, 인터넷 망을 이용한 실시간 음성 전송, 음성인식, 음성 코덱 등의 분야에서 사용되고 있다. 본 발명의 기술은 음성통신 단말기, 인터넷 망 음성통화 서비스, 모바일 인터넷 망 음성통화 서비스, 음성인식 어플리케이션, 스마트폰 블루투스 통신 시스템, 음성 향상 시스템, 무선 통신 시스템 등에 적용 가능하다.
음성 검출 기술은 음성 신호의 음성과 비음성 구간에 대해 잡음 환경에서 두 구간을 분류하는 기술로 음성통신 시스템, 음성인식, 잡음 제거 기술, 음향학적 반향 제거기 등에서 핵심적인 역할을 수행한다.
음성 통신 기술의 핵심이라고 여겨지는 음성 코덱에서는 제한된 주파수를 효율적으로 사용하기 위해 음성의 유무에 따라 음성 신호를 가변적으로 부호화한다. 즉, 음성이 존재하지 않는 경우에는 낮은 비트율로, 음성이 존재하는 경우에는 높은 비트율로 음성 신호를 부호화하여 전송하는 것인데 여기서 음성의 유무 판별에 적용된 기술이 음성 검출 기술이다.
종래의 기술로는 "J.Sohn, N.S. Kim and W.Sung, A statistical model-based voice activity detection", IEEE Signal Processing Letters, Vol. 6, No. 1 pp. 1-3, Jan. 1999"이 제안되었으며, 해당 기술은 통계적 모델을 채택하여 가설에 따른 우도비 검사를 거쳐 음성 활성 여부를 판단한다.
본 발명은 기존의 우도비 검사를 통한 통계적 모델에 기초하는 음성 검출 기술과는 달리, 시간 및 주파수 사이의 상관도를 가지는 음성 신호의 특성을 고려해주기 위해 입력 신호의 특정 시간과 특정 주파수에 해당하는 스펙트럼 성분에 시간 및 주파수 축을 기준으로 인접한 스펙트럼 성분을 포함하여 벡터로 확장시킨다. 확장된 벡터를 통해 통계적 모델의 우도비 및 음향 모델의 전력 스펙트럼 밀도를 추정하고 이들을 결합한 다중 특징을 심화 신경망의 입력 특징 벡터로 사용한다. 심화 신경망의 학습 과정으로부터 생성된 이항 분류 모델로 음성 활성 여부를 판별하는 음성 검출기 및 음성 검출 방법을 제공하는 것을 그 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 특징에 따른 음성 검출기는, 음성 신호를 입력하는 입력 수단; 상관도가 고려된 특징 벡터를 산출하는 특징 벡터 산출 모듈; 특징 벡터를 추출하고 결합하는 특징 벡터 추출 및 결합 모듈; 결합된 특징 벡터를 심화 신경망에서 학습하는 훈련 모듈; 및 학습된 모델을 바탕으로 음성을 검출하는 음성 검출 모듈;을 포함한다.
여기서, 상기 특징 벡터 산출 모듈은, 스펙트럼 상에서 특정 시간, 특정 주파수에 해당하는 스펙트럼 계수의 시간 축 및 주파수 축으로 인접한 스펙트럼 계수들을 포함하여 벡터를 생성하여 특징 벡터를 산출하는 것을 특징으로 할 수 있다.
또한, 상기 특징 벡터 추출 및 결합 모듈은, 매 프레임마다 누적 연산된 입력 신호의 누적 전력 스펙트럼 밀도 행렬의 대각합 및 일반화된 우도비를 추출하고 이 특징 벡터들을 하나의 다중 특징으로 결합하는 것을 특징으로 할 수 있다.
또한, 상기 훈련 모듈은, 훈련 단계에서 대조적 발산 알고리즘을 통해 분류 모델을 초기화하고 상대 엔트로피 오차를 최소화하는 방향으로 각 층의 가중치 매개 변수에 대한 상대 엔트로피 오차 함수의 도함수를 이용한 역전파 알고리즘을 통해 분류 모델을 갱신하는 것을 특징으로 할 수 있다.
또한, 상기 음성 검출 모듈은, 검증 단계에서 훈련 단계와 마찬가지로 입력 특징 벡터를 구성하고 훈련 단계에서 생성된 분류 모델을 입력 특징 벡터에 적용하여 산출된, 출력 노드 값에 소프트맥스 알고리즘을 적용하여 나오는 확률 값을 특정 문턱값과 비교하여 음성을 검출하는 것을 특징으로 할 수 있다.
또한, 본 발명의 특징에 따른 음성 검출 방법은, 입력 수단에 음성 신호를 입력하는 단계; 입력 신호를 단구간 푸리에 변환을 통해 주파수 영역으로 나타내는 단계; 해당 스펙트럼의 시간 축 및 주파수 축으로 인접한 스펙트럼을 통해 시간 및 주파수 사이의 상관도가 고려된 벡터를 생성하는 단계; 확장된 벡터를 통헤 입력 신호의 전력 스펙트럼 밀도 행렬을 연산하고 재귀 평균을 통한 전력 스펙트럼 밀도를 누적하는 단계; 누적된 전력 스펙트럼 밀도를 통해 깨끗한 음성 전력 스펙트럼 밀도를 추정하고 음성 존재 확률을 추정하는 단계; 추정된 음성 존재 확률 및 가변 매개 변수를 통한 잡음 전력 스펙트럼 밀도를 추정하는 단계; 입력 신호의 전력 스펙트럼 밀도 행렬의 대각합과 음성 존재 확률을 통해 추정되는 일반화된 우도비를 특징벡터로 추출하고 결합하는 단계; 심화 신경망을 이용한 분류 모델을 훈련하는 단계; 및 학습된 분류 모델을 이용한 음성 검출을 수행하는 단계를 포함한다.
본 발명에 따른 음성 검출기 및 음성 검출 방법을 사용하여, 음성 신호의 시간 및 주파수 사이의 상관도를 반영하고 심화 신경망의 학습을 통해 다양한 잡음 환경에서 기존 기술에 비해 보다 강인하고 우수한 음성 검출 성능을 가지며, 상관도의 고려 정도에 따라 다양한 잡음 환경에서 음성 검출 성능의 기여도를 파악할 수 있는 이점이 있다.
도 1은 본 발명의 일시시예에 대해서, 단구간 푸리에 변환 영역에서의 입력 신호의 단구간 푸리에 변환 계수 및 상관도 기반의 벡터를 도시한 도면.
도 2는 본 발명의 일시시예에 대해서, 심화 신경망을 이용한 시간 및 주파수 사이의 상관도가 고려된 음성 검출 방법에서 각 단계의 순서도를 도시한 도면.
도 3은 본 발명의 일시시예에 대해서, 시간 및 주파수 사이의 상관도가 고려된 특징 벡터 추출과 심화 신경망을 결합한 음성 검출 방법을 도시한 도면.
도 4는 본 발명의 일시시예에 대해서, 음성 검출기에서의 신호 흐름을 도시한 도면.
도 5는 본 발명의 일시시예에 대해서, 시간 및 주파수 사이의 상관도의 고려 정도에 따른 여러 유형의 벡터 차원을 도시한 도면.
도 6는 본 발명의 일시시예에 대해서, 음성 검출 방법을 종래 기술과 비교하여 도시한 그래프 도면.
시간 영역에서 단일 채널 마이크로 들어오는 입력 신호(input signal)
Figure pat00001
는 깨끗한 음성 신호(clean signal)
Figure pat00002
와 배경 잡음 신호(noise signal)인
Figure pat00003
의 합으로 나타낼 수 있고, 여기서
Figure pat00004
는 시간 인덱스를 의미한다. 입력 신호
Figure pat00005
를 단구간 푸리에 변환(short-time Fourier transform, 이하 "STFT"이라 표기함)을 통해 생성된 STFT 계수(coefficient)
Figure pat00006
는 수학식 1과 같이 표현된다.
Figure pat00007
수학식 1에서
Figure pat00008
는 주파수 성분(frequency bin),
Figure pat00009
은 프레임 인덱스(frame index)를 의미하며
Figure pat00010
,
Figure pat00011
는 각각 깨끗한 음성 신호, 배경 잡음 신호의 STFT 계수를 나타낸다.
음성 신호는 음성 존재 및 음성 부재로 나눌 수 있으며 음성 부재에 대한 가설
Figure pat00012
과 음성 존재에 대한 가설
Figure pat00013
을 각각 수학식 2와 수학식 3으로 나타낸다.
Figure pat00014
Figure pat00015
음성 신호는 시간 및 주파수 사이에서 상관도(correlation)를 가지는 특성이 있다. 따라서 이를 고려해주기 위해 해당 계수를 이에 이웃한 계수들을 포함한 하나의 벡터
Figure pat00016
로 확장하며 수학식 4로 표현된다.
Figure pat00017
수학식 4에서
Figure pat00018
는 주파수 축에서
Figure pat00019
를 기준으로 떨어진 거리까지의 주파수 성분 개수를 의미하고,
Figure pat00020
은 시간 축에서 이전 프레임 및 현재 프레임을 포함한 프레임 개수를 의미한다.
수학식 4의 이해를 돕기 위해 도 1에 본 발명의 일시시예에 대해서, 단구간 푸리에 변환 영역에서의 입력 신호의 푸리에 변환 계수 및 상관도 기반의 벡터를 도시하였다.
상관도가 고려된 벡터가 정의됨에 따라 이에 대해 STFT 계수에 적용되었던 수학식 2와 3의 가설이 마찬가지로 벡터에 적용되며 이를 통해 다변량 복소 가우시안 통계 모델(multivariate complex Gaussian distribution)의 조건부 확률밀도(conditional probability density)
Figure pat00021
,
Figure pat00022
은 각각 수학식 5와 수학식 6으로 표현된다.
Figure pat00023
Figure pat00024
수학식 5와 수학식 6에서
Figure pat00025
는 음성 신호의 상관행렬(correlation matrix),
Figure pat00026
는 잡음 신호에 해당하는 상관행렬을 의미하며
Figure pat00027
연산자는 기댓값(expectation),
Figure pat00028
연산자는 정방 행렬에 대한 행렬식 (determinant),
Figure pat00029
은 다변량 통계적 모델의 차원 수를 의미한다. 식의 복잡도를 줄이기 위해 시간 및 주파수에 해당하는 인덱스
Figure pat00030
Figure pat00031
은 생략하였다.
각 가설에 따른 다변량 복소 가우시안 분포가 정의됨에 따라 일반화된 우도비(generalized likelihood ratio, 이하 "GLR"이라 표기함)
Figure pat00032
는 수학식 7로 정의된다.
Figure pat00033
수학식 7에서
Figure pat00034
는 선행 음성 부재 확률(a priori probability of speech absence)을 나타낸다. 계산의 복잡도를 줄이기 위하여
Figure pat00035
를 행렬의 계수(rank)가 1인 행렬로 가정하며, 역행렬 보조정리(matrix inversion lemma)에 의해 GLR은 수학식 8과 같이 간단히 정리된다.
Figure pat00036
시간 및 주파수 사이의 상관도가 고려된 전력 스펙트럼 밀도(power spectral density, 이하 "PSD"라 표기함)는 상관행렬로 간주한다. 즉,
Figure pat00037
로 간주할 수 있고, 실제 연산에서는 재귀 평균(recursive averaging)을 이용한다.
Figure pat00038
번째 프레임의
Figure pat00039
번째 주파수 성분에 해당하는
Figure pat00040
는 수학식 9로 나타낸다.
Figure pat00041
수학식 9에서
Figure pat00042
는 0과 1사이의 가중치 매개 변수(weighting factor)이고,
Figure pat00043
는 해당 변수의 추정치(estimate)를 의미한다.
수학식 7의 GLR를 추정하기 위해서는
Figure pat00044
가 필수적이며 이는 연판정 (soft-decision) 기반의 음성 존재 확률(speech presence probability)을 통해 추정할 수 있다. 음성 존재 확률은 미리 알 수 없기 때문에 입력 신호를 바탕으로 추정해야 한다. 음성 존재에 대한 사후 확률(a posteriori probability of speech presence)
Figure pat00045
은 수학식 10으로 표현된다.
Figure pat00046
수학식 10에서
Figure pat00047
은 베이즈 정리 (Bayes' theorem)에 따라 전개되며 GLR만의 식으로 표현된다.
추정된 음성 존재 확률을 바탕으로
Figure pat00048
을 갱신하게 되며,
Figure pat00049
번째 프레임의
Figure pat00050
번째 주파수 성분에 해당하는 PSD 추정치
Figure pat00051
와 가변 가중치 매개 변수
Figure pat00052
는 수학식 11과 수학식 12로 표현된다.
Figure pat00053
Figure pat00054
수학식 11과 12에서
Figure pat00055
는 음성 존재 확률에 따라 가변하는 가중치 매개 변수를 나타내며,
Figure pat00056
는 0과 1 사이의 상수를 의미한다.
도 2는 본 발명의 일시시예에 대해서, 심화 신경망을 이용한 시간 및 주파수 사이의 상관도가 고려된 음성 검출 방법에서 각 단계의 순서도를 도시한 도면이다. 입력 수단에 신호 입력 단계(S100), 단계 S100에서 입력받은 STFT계수를 바탕으로 상관도가 고려된 벡터를 통해 특징 벡터를 추정하는 단계(S200), 입력 신호 PSD 행렬의 대각합과 SPP 연산을 통해 추정되는 일반화된 우도비를 특징 벡터로 추출 및 결합 단계(S300), DNN 이용하여 훈련된 분류 모델 생성 단계(S400), 생성된 분류 모델 이용하여 음성 검출 수행 단계(S500)로 순서가 진행된다. 상관도가 고려된 벡터를 통해 특징 벡터를 추정하는 단계(S200)는 입력 신호를 단구간 푸리에 변환(STFT) 단계(S210), 시간 축과 주파수 축으로 인접한 스펙트럼을 통해 시간 및 주파수 사이의 상관도가 고려된 벡터 생성 단계(S220), 확장된 벡터를 통해 입력 신호의 전력 스펙트럼 밀도(PSD) 행렬을 연산하고 재귀 평균을 통한 PSD 누적 단계(S230), 깨끗한 음성 PSD 추정 및 음성 존재 확률(SPP) 추정 단계(S240), 추정된 SPP와 가변 매개 변수를 통해 잡음 PSD 추정 단계(S250)로 구성된다.
구체적으로, 단계 S200은 입력 신호의 STFT 변환을 이용(S210)하여 스펙트럼 성분을 나타내고, 해당 성분의 시간 및 주파수 축으로 인접한 스펙트럼 성분들을 바탕으로 시간 및 주파수 사이의 상관도가 고려된 벡터를 생성(S210)한다. 확장된 벡터를 통해 입력 신호의 PSD 행렬을 연산하고 재귀 평균을 이용하여 PSD 행렬을 누적(S230)한다. 누적된 PSD 행렬을 바탕으로 깨끗한 음성 PSD 추정하고 SPP를 추정(S240)한다. 추정된 SPP를 통해 가변 매개 변수를 갱신하고 그 후 잡음 PSD를 추정(S250)한다.
본 발명에서 사용하는 심화 신경망(deep neural networks, 이하 "DNN"이라 표기함) 알고리즘은 이항 분류 (binary classification)를 위해 제한된 볼츠만 머신(restricted Boltzmann machine, 이하 "RBM"이라 표기함)을 여러 층으로 쌓은 구조인 심층 신뢰망(deep belief networks, 이하 "DBN"이라 표기함)과 역전파 알고리즘(backpropagation)을 사용하였다. 심층 신뢰망은 심화 신경망에서 사용되는 분류 모델을 사전 훈련(feed-forward 혹은 pre-training)을 통해 각 층마다 초기화할 수 있다. 사전 훈련 과정은 대조적 발산 알고리즘(contrastive divergence)을 사용한다. 역전파 알고리즘은 후술하여 설명하기로 한다.
DNN 구조 중
Figure pat00057
번째 층의 출력 노드 함수
Figure pat00058
Figure pat00059
번째 층의 전체 가중치 합
Figure pat00060
는 수학식 13으로 표현된다.
Figure pat00061
수학식 13에서
Figure pat00062
,
Figure pat00063
는 각각
Figure pat00064
번째 층에 대한 바이어스 벡터 집합(vector set), 가중치 매개 변수 벡터 집합을 나타내며,
Figure pat00065
는 활성화 함수(activation function)이다. 초기 가중치 합에 대한 식은
Figure pat00066
으로 나타내며, 여기서
Figure pat00067
은 입력 벡터의 집합을 의미한다.
역전파 알고리즘은 베르누이 기반의 상대 엔트로피 오차(cross-entropy error)를 최소화 하는 방향으로 가중치 매개 변수를 갱신하게 된다. 상대 엔트로피 오차
Figure pat00068
는 수학식 14와 같이 정의된다.
Figure pat00069
수학식 14에서
Figure pat00070
Figure pat00071
번째 프레임에 대한 훈련 데이터의 목표값(training target),
Figure pat00072
은 DNN의 출력 노드 값을 의미한다.
상대 엔트로피 오차를 최소화하는 방법은 각 층의 가중치 매개 변수에 대한 오차 함수의 도함수를 이용한 경사 하강법(gradient descent method)을 적용한다. 각 층을 통과한 입력 벡터는 마지막 층의 활성화 함수인 로지스틱 함수(logistic function)를 거치게 되면 0과 1 사이의 값을 가지게 되며 이들을 두 개의 출력 노드로 분류하기 위해서 각 노드들에 대한 확률 값을 부여하는 소프트맥스(softmax) 알고리즘을 도입하며, 확률
Figure pat00073
는 수학식 15로 표현된다.
Figure pat00074
수학식 15에서
Figure pat00075
Figure pat00076
번째 활성화 함수에 의해 연산된 출력 노드의 벡터 집합을 의미한다.
도 3은 본 발명의 일시시예에 대해서, 시간 및 주파수 사이의 상관도가 고려된 특징 벡터 추출과 심화 신경망을 결합한 음성 검출 방법을 도시한 도면이다. 도 3에 도시된 바와 같이, 훈련 단계(training stage)와 검증 단계(test stage)로 입력 데이터 신호를 각각 분리한 후 특징 벡터를 추출하고 결합한다. 그와 동시에 추출된 벡터의 프레임이 음성 존재 구간 혹은 음성 부재 구간인지에 대한 미리 알고 있는 정답을 추출한다. 훈련 단계에서 결합된 특징 벡터는 DNN의 입력 특징 벡터로 사용되며, 훈련 목표값은 음성 존재에 대해서는
Figure pat00077
, 음성 부재에 대해서는
Figure pat00078
의 값을 설정한다. 입력된 특징 벡터는 DNN의 각 층을 통과하는 사전 훈련 과정을 거쳐 분류 모델을 초기화한다. 또한, 역전파 알고리즘을 통해 초기화된 분류 모델의 상대 엔트로피 오차를 줄이는 방향으로 모델을 갱신하는 과정을 거친다. 훈련 단계를 거쳐 얻어진 가중치 매개 변수 및 바이어스로 구성된 분류 모델은 검증 단계에서 소프트맥스 알고리즘을 통해 적용되어 확률 값을 얻는다. 음성 검출 단계에서 구해진 확률 값은 특정 문턱값(threshold)과의 비교를 통해 음성 검출을 수행한다.
도 4는 본 발명의 일시시예에 대해서, 음성 검출기에서의 신호 흐름을 도시한 도면이다. 입력 수단(100)에 입력된 신호를 STFT을 통해 시간 및 주파수에 대한 스펙트럼으로 분해한다. 그 후 상관도가 고려된 특징 벡터 산출 모듈(200)과 특징 벡터 추출 및 결합 모듈(300)을 통해 입력 PSD의 대각합(trace)과 GLR을 특징 벡터로 추출한다. 그 후 DNN 훈련 모듈(400)을 거쳐 이항 분류 모델을 생성하여 음성 검출 모듈(500)에서 음성 활성 여부를 검출하며 이 과정은 앞서 도 2, 도 3의 내용과 유사하므로 상세한 설명은 생략한다.
실험결과
본 발명의 실시예에서는 종래의 기술이었던 Sohn의 기존 음성 검출 기술과 본 발명의 여러 벡터 차원에 따른 기술을 비교하였다.
도 5는 본 발명의 일시시예에 대해서, 시간 및 주파수 사이의 상관도의 고려 정도에 따른 여러 유형의 벡터 차원을 도시한 도면이다. 고려 정도에 따라 각각은
Figure pat00079
,
Figure pat00080
,
Figure pat00081
,
Figure pat00082
,
Figure pat00083
로 나타냈으며 훈련 단계에서는
Figure pat00084
,
Figure pat00085
,
Figure pat00086
,
Figure pat00087
,
Figure pat00088
로, 검증 단계에서는
Figure pat00089
,
Figure pat00090
,
Figure pat00091
,
Figure pat00092
로 구성하여 특징 벡터를 추출하였다.
도 6는 백색 잡음(white noise) 환경에서 신호 대 잡음비(signal-to-noise ratio, 이하 "SNR"이라 표기함)가 5 dB의 수신자 조작 특성 (receiver operating characteristics, 이하 "ROC"이라 표기함) 곡선을 나타낸다. ROC 곡선의 가로 축은 비음성을 음성이라 판단한 오경보 확률 (false-alarm probability, 이하 "
Figure pat00093
"이라 표기함), 세로 축은 실제 음성을 음성이라 판단한 음성 검출 확률 (speech detection probability, 이하 "
Figure pat00094
"이라 표기함)이다. ROC 곡선은
Figure pat00095
가 낮을수록 또한
Figure pat00096
가 높을수록, 즉, 축을 기준으로 그래프가
Figure pat00097
에 가까이 다가갈수록 우수한 성능의 음성 검출기로 판단할 수 있다. 해당 잡음의 경우 정상적인 잡음 특성으로 인해 시간 및 주파수 사이의 상관도가 고려된 기술이 상관도를 고려해주지 않을 경우인 Sohn의 음성 검출 기술보다 전체적으로 우수한 성능을 나타냈으며, 본 발명의 기술 중에서는 상관도의 고려 정도가
Figure pat00098
인 경우의 음성 검출 성능이 제일 뛰어났다.
수신자 조작 특성 곡선 이외의 음성 검출 성능 평가 방법 중 음성 검출의 오류 확률 (error probability, 이하 "
Figure pat00099
"이라 표기함) 비교가 있다.
Figure pat00100
Figure pat00101
와 미검출 확률(miss-alarm probability)의 합으로 정의되며 음성 검출 성능의 객관적인 지표로 나타낼 수 있다. 표 1은 Sohn의 기존 음성 검출 기술과 본 발명의 여러 벡터 차원에 따른 기술을 백색, factory1, babble 잡음에 대해 SNR별 5 dB 단위로 0 dB부터 15 dB 까지의
Figure pat00102
를 나타낸다.
[표 1]
Figure pat00103
표 1로부터,
Figure pat00104
가 낮을수록 해당 기술의 음성 검출의 성능이 우수하다고 평가할 수 있다. 표 1은 도 6과 마찬가지로 본 발명의 기술이 기존의 음성 검출 기술인 Sohn보다 우수한 성능을 보였다.
이상 설명한 본 발명은 본 발명의 기술적 사상을 벗어나지 않은 범위 내에서 본 발명의 기술 분야에 대해 통상의 지식을 습득한 자에 의하여 다양한 형태의 변형이 가능하며, 본 발명에서 상기한 실시예와 설명 내용에만 한정되는 것은 아니며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.
S100: 입력 수단에 신호 입력
S200: 상관도가 고려된 벡터를 통해 특징 벡터를 추정하는 단계
S210: 입력 신호를 단구간 푸리에 변환(STFT)
S220: 시간 축과 주파수 축으로 인접한 스펙트럼을 통해 시간 및 주파수 사이의 상관도가 고려된 벡터 생성
S230: 확장된 벡터를 통해 입력 신호의 전력 스펙트럼 밀도(PSD) 행렬을 연산하고 재귀 평균을 통한 PSD 누적
S240: 깨끗한 음성 PSD 추정 및 음성 존재 확률(SPP) 추정
S250: 추정된 SPP와 가변 매개 변수를 통해 잡음 PSD 추정
S300: 입력 신호 PSD 행렬의 대각합과 SPP 연산을 통해 추정되는 일반화된 우도비를 특징 벡터로 추출 및 결합
S400: 심화 신경망을 이용한 분류 모델 훈련
S500: 학습된 분류 모델 이용하여 음성 검출 수행
100: 입력 수단
200: 상관도가 고려된 특징 벡터 산출 모듈
300: 특징 벡터 추출 및 결합 모듈
400: DNN 훈련 모듈
500: 음성 검출 모듈

Claims (11)

  1. 음성 신호를 입력하는 입력 수단;
    상관도가 고려된 특징 벡터를 산출하는 특징 벡터 산출 모듈;
    특징 벡터를 추출하고 결합하는 특징 벡터 추출 및 결합 모듈;
    결합된 특징 벡터를 심화 신경망에서 학습하는 훈련 모듈; 및
    학습된 모델을 바탕으로 음성을 검출하는 음성 검출 모듈;
    을 포함하는 것을 특징으로 하는 음성 검출기.
  2. 제1 항에 있어서,
    상기 특징 벡터 산출 모듈은,
    스펙트럼 상에서 특정 시간, 특정 주파수에 해당하는 스펙트럼 계수의 시간 축 및 주파수 축으로 인접한 스펙트럼 계수들을 포함하여 벡터를 생성하여 특징 벡터를 산출하는 것을 특징으로 하는 음성 검출기.
  3. 제1 항에 있어서,
    상기 특징 벡터 추출 및 결합 모듈은,
    매 프레임마다 누적 연산된 입력 신호의 누적 전력 스펙트럼 밀도 행렬의 대각합 및 일반화된 우도비를 추출하고 이 특징 벡터들을 하나의 다중 특징으로 결합하는 것을 특징으로 하는 음성 검출기.
  4. 제1 항에 있어서,
    상기 훈련 모듈은,
    훈련 단계에서 대조적 발산 알고리즘을 통해 분류 모델을 초기화하고 상대 엔트로피 오차를 최소화하는 방향으로 각 층의 가중치 매개 변수에 대한 상대 엔트로피 오차 함수의 도함수를 이용한 역전파 알고리즘을 통해 분류 모델을 갱신하는 것을 특징으로 하는 음성 검출기.
  5. 제1 항에 있어서,
    상기 음성 검출 모듈은,
    검증 단계에서 훈련 단계와 마찬가지로 입력 특징 벡터를 구성하고 훈련 단계에서 생성된 분류 모델을 입력 특징 벡터에 적용하여 산출된, 출력 노드 값에 소프트맥스 알고리즘을 적용하여 나오는 확률 값을 특정 문턱값과 비교하여 음성을 검출하는 것을 특징으로 하는 음성 검출기.
  6. 입력 수단에 신호 입력 단계;
    상관도가 고려된 벡터를 통해 특징 벡터를 추정하는 단계;
    입력 신호에 대한 전력 스펙트럼 밀도 행렬의 대각합과 음성 존재 확률 연산을 통해 추정되는 일반화된 우도비를 특징 벡터로 추출 및 결합 단계;
    심화 신경망을 이용한 분류 모델 훈련 단계; 및
    학습된 분류 모델 이용하여 음성 검출 수행 단계;를 포함하는 것을 특징으로 하는 음성 검출 방법.
  7. 제6 항에 있어서,
    상관도가 고려된 벡터를 통해 특징 벡터를 추정하는 단계는,
    입력 신호를 단구간 푸리에 변환하는 단계;
    시간 축과 주파수 축으로 인접한 스펙트럼을 통해 시간 및 주파수 사이의 상관도가 고려된 벡터 생성하는 단계;
    확장된 벡터를 통해 입력 신호의 전력 스펙트럼 밀도 행렬을 연산하고 재귀 평균을 통해 전력 스펙트럼 밀도를 누적하는 단계;
    깨끗한 음성의 전력 스펙트럼 밀도 추정 및 음성 존재 확률 추정하는 단계; 및
    추정된 음성 존재 확률과 가변 매개 변수를 통해 잡음 신호의 전력 스펙트럼 밀도 추정하는 단계;를 포함하는 것을 특징으로 하는 음성 검출 방법.
  8. 제6 항에 있어서,
    시간 축과 주파수 축으로 인접한 스펙트럼을 통해 시간 및 주파수 사이의 상관도가 고려된 벡터 생성하는 단계는,
    단구간 푸리에 변환을 통해 스펙트럼 상의 입력 신호에 대한 단구간 푸리에 변환 계수를 이에 시간 축과 주파수 축으로 인접한 단구간 푸리에 변환 계수를 추가하여 새롭게 생성된 상관도가 고려된 벡터를 생성하는 단계를 포함하는 것을 특징으로 하는 음성 검출 방법.
  9. 제6 항에 있어서,
    입력 신호에 대한 전력 스펙트럼 밀도 행렬의 대각합과 음성 존재 확률 연산을 통해 추정되는 일반화된 우도비를 특징 벡터로 추출 및 결합 단계는,
    통계적 모델을 가정하고 산출한 일반화된 우도비와 음향 모델에 해당하는 전력 스펙트럼 밀도 행렬의 대각합을 각각 특징 벡터로 추출하고 추출된 벡터를 합쳐 다중 특징으로 결합하는 것을 특징으로 하는 음성 검출 방법.
  10. 제6 항에 있어서,
    심화 신경망을 이용한 분류 모델 훈련 단계는,
    훈련 단계에서 대조적 발산 알고리즘을 통해 분류 모델을 초기화하고 상대 엔트로피 오차를 최소화하는 방향으로 각 층의 가중치 매개 변수에 대한 상대 엔트로피 오차 함수의 도함수를 이용한 역전파 알고리즘을 통해 분류 모델을 갱신하는 것을 특징으로 하는 음성 검출 방법.
  11. 제6항에 있어서,
    학습된 분류 모델 이용하여 음성 검출 수행 단계는,
    검증 단계에서 훈련 단계와 마찬가지로 입력 특징 벡터를 구성하고 훈련 단계에서 생성된 분류 모델을 입력 특징 벡터에 적용하여 산출된, 출력 노드 값에 소프트맥스 알고리즘을 적용하여 나오는 확률 값을 특정 문턱값과 비교하여 음성을 검출하는 것을 특징으로 하는 음성 검출 방법.
KR1020160129031A 2016-10-06 2016-10-06 심화 신경망을 이용한 시간 및 주파수 간 상관도 기반의 음성 검출기 및 음성 검출 방법 KR101877127B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160129031A KR101877127B1 (ko) 2016-10-06 2016-10-06 심화 신경망을 이용한 시간 및 주파수 간 상관도 기반의 음성 검출기 및 음성 검출 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160129031A KR101877127B1 (ko) 2016-10-06 2016-10-06 심화 신경망을 이용한 시간 및 주파수 간 상관도 기반의 음성 검출기 및 음성 검출 방법

Publications (2)

Publication Number Publication Date
KR20180038219A true KR20180038219A (ko) 2018-04-16
KR101877127B1 KR101877127B1 (ko) 2018-07-10

Family

ID=62082163

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160129031A KR101877127B1 (ko) 2016-10-06 2016-10-06 심화 신경망을 이용한 시간 및 주파수 간 상관도 기반의 음성 검출기 및 음성 검출 방법

Country Status (1)

Country Link
KR (1) KR101877127B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110265065A (zh) * 2019-05-13 2019-09-20 厦门亿联网络技术股份有限公司 一种构建语音检测模型的方法及语音端点检测系统
WO2020138624A1 (en) * 2018-12-27 2020-07-02 Lg Electronics Inc. Apparatus for noise canceling and method for the same
CN112414446A (zh) * 2020-11-02 2021-02-26 南昌智能新能源汽车研究院 一种数据驱动的变速器传感器故障诊断方法
KR20210038051A (ko) 2019-09-30 2021-04-07 국방과학연구소 음성 복원 장치 및 그 방법, 그 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는 컴퓨터 판독 가능한 기록매체 및 컴퓨터 프로그램
KR20220036590A (ko) * 2020-09-16 2022-03-23 서울과학기술대학교 산학협력단 FS-Net 기반의 심층 신경망을 이용한 MIMO 무선 통신 시스템 및 방법
JP2022536189A (ja) * 2020-04-28 2022-08-12 平安科技(深▲せん▼)有限公司 オリジナル音声の声紋を認識する方法、装置、設備および記憶媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516391B1 (ko) 2022-09-02 2023-04-03 주식회사 액션파워 음성 구간 길이를 고려하여 오디오에서 음성 구간을 검출하는 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004240214A (ja) * 2003-02-06 2004-08-26 Nippon Telegr & Teleph Corp <Ntt> 音響信号判別方法、音響信号判別装置、音響信号判別プログラム
JP6235938B2 (ja) * 2013-08-13 2017-11-22 日本電信電話株式会社 音響イベント識別モデル学習装置、音響イベント検出装置、音響イベント識別モデル学習方法、音響イベント検出方法及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020138624A1 (en) * 2018-12-27 2020-07-02 Lg Electronics Inc. Apparatus for noise canceling and method for the same
KR20200084466A (ko) * 2018-12-27 2020-07-13 엘지전자 주식회사 노이즈 캔슬링 장치 및 그 방법
US10818309B2 (en) 2018-12-27 2020-10-27 Lg Electronics Inc. Apparatus for noise canceling and method for the same
CN110265065A (zh) * 2019-05-13 2019-09-20 厦门亿联网络技术股份有限公司 一种构建语音检测模型的方法及语音端点检测系统
CN110265065B (zh) * 2019-05-13 2021-08-03 厦门亿联网络技术股份有限公司 一种构建语音端点检测模型的方法及语音端点检测系统
KR20210038051A (ko) 2019-09-30 2021-04-07 국방과학연구소 음성 복원 장치 및 그 방법, 그 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는 컴퓨터 판독 가능한 기록매체 및 컴퓨터 프로그램
JP2022536189A (ja) * 2020-04-28 2022-08-12 平安科技(深▲せん▼)有限公司 オリジナル音声の声紋を認識する方法、装置、設備および記憶媒体
KR20220036590A (ko) * 2020-09-16 2022-03-23 서울과학기술대학교 산학협력단 FS-Net 기반의 심층 신경망을 이용한 MIMO 무선 통신 시스템 및 방법
CN112414446A (zh) * 2020-11-02 2021-02-26 南昌智能新能源汽车研究院 一种数据驱动的变速器传感器故障诊断方法

Also Published As

Publication number Publication date
KR101877127B1 (ko) 2018-07-10

Similar Documents

Publication Publication Date Title
KR101877127B1 (ko) 심화 신경망을 이용한 시간 및 주파수 간 상관도 기반의 음성 검출기 및 음성 검출 방법
Heymann et al. Neural network based spectral mask estimation for acoustic beamforming
US10672414B2 (en) Systems, methods, and computer-readable media for improved real-time audio processing
KR101704926B1 (ko) 음향 환경 분류를 이용한 심화신경망의 앙상블이 구성된 통계모델 기반의 음성 검출 장치 및 음성 검출 방법
CN110767223B (zh) 一种单声道鲁棒性的语音关键词实时检测方法
KR101640188B1 (ko) 심화 신경망을 이용한 통계모델 기반의 음성 검출 방법 및 이를 수행하는 음성 검출 장치
CN112735456B (zh) 一种基于dnn-clstm网络的语音增强方法
CN111653288A (zh) 基于条件变分自编码器的目标人语音增强方法
KR102206546B1 (ko) 잡음 환경 분류 및 제거 기능을 갖는 보청기 및 그 방법
US20040199384A1 (en) Speech model training technique for speech recognition
Tashev et al. DNN-based causal voice activity detector
KR101620866B1 (ko) 학습 기법을 적용한 사전 학습 알고리즘 기반의 음원 분리 방법
Wang et al. A Maximum Likelihood Approach to Deep Neural Network Based Nonlinear Spectral Mapping for Single-Channel Speech Separation.
KR102406512B1 (ko) 음성인식 방법 및 그 장치
Liu et al. Loss and double-edge-triggered detector for robust small-footprint keyword spotting
Pandharipande et al. An unsupervised frame selection technique for robust emotion recognition in noisy speech
Kang et al. Discriminative weight training for a statistical model-based voice activity detection
WO2005029463A9 (en) A method for recovering target speech based on speech segment detection under a stationary noise
Kang et al. NMF-based speech enhancement incorporating deep neural network.
Nathwani et al. DNN uncertainty propagation using GMM-derived uncertainty features for noise robust ASR
CN112289337A (zh) 一种滤除机器学习语音增强后的残留噪声的方法及装置
Aralikatti et al. Global snr estimation of speech signals using entropy and uncertainty estimates from dropout networks
Zhao et al. Variable-component deep neural network for robust speech recognition
Sivapatham et al. Gammatone Filter Bank-Deep Neural Network-based Monaural speech enhancement for unseen conditions
Ram et al. Recognition of fear from speech using adaptive algorithm with MLP classifier

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant