KR101804787B1 - 음질특징을 이용한 화자인식장치 및 방법 - Google Patents

음질특징을 이용한 화자인식장치 및 방법 Download PDF

Info

Publication number
KR101804787B1
KR101804787B1 KR1020160124770A KR20160124770A KR101804787B1 KR 101804787 B1 KR101804787 B1 KR 101804787B1 KR 1020160124770 A KR1020160124770 A KR 1020160124770A KR 20160124770 A KR20160124770 A KR 20160124770A KR 101804787 B1 KR101804787 B1 KR 101804787B1
Authority
KR
South Korea
Prior art keywords
voice
speech
value
sound quality
parameters
Prior art date
Application number
KR1020160124770A
Other languages
English (en)
Inventor
김경화
김형순
이가희
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020160124770A priority Critical patent/KR101804787B1/ko
Application granted granted Critical
Publication of KR101804787B1 publication Critical patent/KR101804787B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 실시예들은 음성프레임마다 음질특징 파라미터를 추출하고, 음질특징 파라미터로부터 통계적 특징값을 산출하고, 통계적 특징값에 기반하여 음성프레임 중에서 유효음성프레임을 선별함으로써, 배경잡음으로 인한 영향을 최소화한 음성구간에 대하여 화자를 인식할 수 있고, 사용자의 음성으로 본인의 신원을 확인하거나 범죄수사에서 미지의 음성과 용의자의 음성을 비교하는 등의 다양한 응용분야에서 화자인식 기술의 신뢰성을 높일 수 있는 화자인식장치 및 방법을 제공한다.

Description

음질특징을 이용한 화자인식장치 및 방법 {Method and Apparatus for Speaker Recognition Using Voice Quality Feature}
본 실시예가 속하는 기술 분야는 화자를 인식하는 장치 및 방법에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
화자인식(Speaker Recognition) 기술은 음성신호가 누구의 것인지 판별하는 기술로서, 크게 화자식별(Speaker Identification) 기술과 화자확인(Speaker Verification) 기술로 나뉜다. 화자식별 기술은 미리 등록된 복수의 화자 중에서 입력된 음성신호에 해당하는 화자를 선정하는 기술이고, 화자확인 기술은 입력된 음성신호가 등록된 화자와 일치하는 지 여부를 판별하는 기술이다.
화자인식 기술은 실험실 환경에서 높은 수준의 정확도를 나타내는 반면에 실제 환경에서 상대적으로 낮은 정확도가 나타나는 문제가 있다. 배경잡음의 영향으로 음성신호가 왜곡되기 때문이다. 여기서 배경잡음은 발화에 삽입되는 외부 소리를 의미한다. 예를 들면, 주변 사물로부터 발생되는 소리, 타인의 목소리 등이 있다.
화자인식에서 배경잡음의 영향을 줄이기 위하여, 음성을 검출하는 과정에서 음성구간과 비음성구간, 즉, 배경잡음 구간을 구분하여 음성구간에 대해서만 화자인식을 수행하는 방안이 있으나 음성구간에도 배경잡음으로 인하여 음성신호가 왜곡되는 문제가 있다
음성구간에서 배경잡음으로 인한 문제를 해결하기 위하여 음성신호로부터 배경잡음을 감쇠시키는 방안, 배경잡음으로부터 신호특징을 추출하여 화자 모델을 보상하는 방안 등이 제안되었으나 배경잡음을 효과적으로 극복하는 데에는 한계가 있다.
따라서 배경잡음으로 인한 영향을 최소화할 필요성이 있으며, 이러한 문제점들을 해결한 화자인식장치 및 방법은 아직 구현되지 못한 실정이다.
본 발명의 발명자는 배경잡음으로 인하여 비음성구간뿐만 아니라 음성구간의 음성신호가 왜곡되는 문제점을 인식하여, 음성구간 중에서 화자인식에 유효한 음성프레임만을 선별하고자 한다.
이를 위하여 본 발명에서는 음성의학 분야에서 발성장애 진단 척도로 사용되는 음질(voice quality) 특징 파라미터가 잡음 섞인 음성이 화자인식에 얼마나 유용한지 판단하는 척도로도 활용될 수 있음에 착안하여, 이를 화자인식에 유효한 음성프레임 선별에 적용한다.
본 발명의 실시예들은 음성프레임마다 음질특징을 추출하고, 음질특징 파라미터로부터 통계적 특징값을 산출하고, 통계적 특징값에 기반하여 음성프레임 중에서 유효음성프레임을 선별함으로써, 배경잡음으로 인한 영향을 최소화한 음성구간에 대하여 화자를 인식하는 데 발명의 주된 목적이 있다.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.
본 실시예와 관련된 일 측면에 의하면, 복수개의 음성프레임마다 각각 음질특징을 추출하여 복수개의 음질특징 파라미터를 생성하는 음질특징 파라미터 생성부, 상기 복수개의 음질특징 파라미터로부터 통계적 특징값을 산출하는 통계적 특징값 산출부, 및 상기 통계적 특징값에 기반하여 상기 복수개의 음성프레임 중에서 하나 이상의 유효음성프레임을 선별하는 유효음성프레임 선별부를 포함하는 음성구간선별장치를 제공한다.
본 실시예와 관련된 다른 측면에 의하면, 화자로부터 음성신호를 획득하고 상기 음성신호로부터 복수개의 음성프레임을 생성하는 음성획득부, 상기 복수개의 음성프레임마다 각각 음질특징을 추출하여 복수개의 음질특징 파라미터를 생성하고, 상기 복수개의 음질특징 파라미터로부터 통계적 특징값을 산출하고, 상기 통계적 특징값에 기반하여 상기 복수개의 음성프레임 중에서 하나 이상의 유효음성프레임을 선별하는 음성구간선별장치, 및 상기 하나 이상의 유효음성프레임에 대하여 화자를 인식하는 화자인식부를 포함하는 화자인식장치를 제공한다.
본 실시예와 관련된 다른 측면에 의하면, 화자인식장치가 화자를 인식하는 방법에 있어서, 화자로부터 음성신호를 획득하고 상기 음성신호로부터 복수개의 음성프레임을 생성하는 과정, 상기 복수개의 음성프레임마다 각각 음질특징을 추출하여 복수개의 음질특징 파라미터를 생성하는 과정, 상기 복수개의 음질특징 파라미터로부터 통계적 특징값을 산출하는 과정, 상기 통계적 특징값에 기반하여 상기 복수개의 음성프레임 중에서 하나 이상의 유효음성프레임을 선별하는 과정, 및 상기 하나 이상의 유효음성프레임에 대하여 화자를 인식하는 과정을 포함하는 화자인식방법을 제공한다.
이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 음성프레임마다 음질특징 파라미터를 추출하고, 음질특징 파라미터로부터 통계적 특징값을 산출하고, 통계적 특징값에 기반하여 음성프레임 중에서 유효음성프레임을 선별함으로써, 배경잡음으로 인한 영향을 최소화한 음성구간에 대하여 화자를 인식할 수 있는 효과가 있다.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.
도 1은 본 발명의 일 실시예에 따른 화자인식장치를 예시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 화자인식장치의 동작을 예시한 흐름도이다.
이하, 본 발명을 설명함에 있어서 관련된 공지기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하고, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 화자인식장치를 예시한 블록도이다. 도 1에 도시한 바와 같이, 화자인식장치(10)는 음성획득부(100), 음성구간선별장치(200), 및 화자인식부(300)를 포함한다. 화자인식장치(10)는 도 1에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.
화자인식장치(10)는 화자로부터 음성신호를 획득하고, 획득한 음성신호 중에서 유효한 음성구간을 선별하고, 유효한 음성구간에 대하여 화자를 인식하는 장치이다.
음성획득부(100)는 화자로부터 음성신호를 획득하고 음성신호로부터 복수개의 음성프레임을 생성한다. 음성획득부(100)는 마이크로폰으로 입력된 아날로그 음성신호를 디지털로 변환하거나 메모리에 기 저장된 디지털 음성신호로부터 기 설정된 프레임길이를 갖는 음성프레임을 생성한다. 여기서 마이크로폰은 녹음기, 핸드폰, 스마트폰, 퍼스널컴퓨터 등 전자기기에 구비된 녹음수단을 포함하는 개념이다. 메모리는 저장수단으로서, 랜덤액세스메모리(Random Access Memory, RAM), 자기 디스크(Magnetic Disc), 플래시 메모리(Flash Memory), 정적램(Static Random Access Memory, SRAM), 롬(Read Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read Only Memory), PROM(Programmable Read Only Memory) 등으로 구현될 수 있으나 이에 한정되는 것은 아니다.
음성프레임은 음성신호를 일정한 길이로 토큰화(Tokenization)한 것이다. 프레임길이는 사전에 설정되고 변경이 가능하다. 프레임길이는 음성신호 처리량에 기반하여 추정된 수치, 통계적으로 산출된 수치, 또는 기술규정에 따른 수치일 수 있다.
음성구간선별장치(200)는 복수개의 음성프레임마다 각각 음질특징 파라미터를 추출하여 복수개의 음질특징 파라미터를 생성하고, 복수개의 음질특징 파라미터로부터 통계적 특징값을 산출하고, 통계적 특징값에 기반하여 복수개의 음성프레임 중에서 하나 이상의 유효음성프레임을 선별한다.
화자인식부(300)는 하나 이상의 유효음성프레임에 대하여 화자를 판별한다. 화자인식부(300)는 GMM-UBM(Gaussian Mixture Model-Universal Background Model), SVM(Support Vector Machine), JFA(Joint Factor Analysis), i-vector, DNN(Deep Neural Network) 또는 이들의 조합을 이용하여 화자를 인식한다. 화자인식부(300)는 음질특징 파라미터 및 통계적 특징값에 근거하여, GMM-UBM, SVM, JFA, i-Vector, DNN, 또는 이들의 조합을 선택할 수 있다. 한편, GMM-UBM, SVM, JFA, i-Vector, DNN에 관한 기술내용은 본 실시예가 속하는 기술분야의 기술자들에 의해 용이하게 추론될 수 있을 것이다.
화자인식장치(10)가 음성프레임마다 음질특징 파라미터를 추출하고, 음질특징 파라미터로부터 통계적 특징값을 산출하고, 통계적 특징값에 기반하여 음성프레임 중에서 유효음성프레임을 선별함으로써, 배경잡음으로 인한 영향을 최소화한 음성구간에 대하여 화자를 인식할 수 있고, 사용자의 음성으로 본인의 신원을 확인하거나 범죄수사에서 미지의 음성과 용의자의 음성을 비교하는 등의 다양한 응용분야에서 화자인식 기술의 신뢰성을 높일 수 있는 효과가 있다.
도 1을 다시 참조하면, 음성구간선별장치(200)는 음질특징 파라미터 생성부(210), 통계적 특징값 산출부(220), 및 유효음성프레임 선별부(230)을 전부 또는 일부 포함한다.
음질특징 파라미터 생성부(210)는 복수개의 음성프레임마다 각각 음질특징을 추출하여 복수개의 음질특징 파라미터를 생성한다.
음질특징 파라미터로는 주파수 변동율(Jitter), 진폭 변동율(Shimmer), 잡음 대 배음비(Noise-to-Harmonic Ratio, NHR), 켑스트럼 피크 현저도(Cepstral Peak Prominence, CPP) 등이 있을 수 있으나 이에 한정되는 것은 아니다. 여기서 켑스트럼(Cepstrum)은 시간영역의 신호를 푸리에변환(Fourier Transform)하여 얻은 스펙트럼(Spectrum)에 로그값(Logarithm)을 취한 후 이를 역푸리에변환(inverse Fourier Transform)한 것이다. 켑스트럼 피크 현저도는 켑스트럼 피크(Cepstral Peak)가 켑스트럼을 선형회귀(Linear Regression)로 근사화한 직선에 비해 얼마나 더 높은지를 데시벨(dB) 스케일로 나타낸 것이다.
음질특징 파라미터 중에서 주파수 변동율(Jitter), 진폭 변동율(Shimmer), 및 잡음 대 배음비(NHR)는 음성신호의 기본 주기 또는 기본 주파수의 정확한 추정에 기반을 둔 방법으로서, 발성과정의 문제 또는 배경잡음과 같은 다양한 원인으로 기본 주파수 추정의 정확도가 떨어질 경우, 그 측정값이 크게 영향을 받는 문제가 있다. 반면에 켑스트럼 피크 현저도는 명시적으로 음성의 기본 주파수 값을 사용하지 않고 단지 켑스트럼 피크와 선형회귀 직선 사이의 거리로 구해지기 때문에 기본 주파수 추정 오류의 영향에 강인하다. 발명자는 켑스트럼 피크 현저도를 이용하여 음성프레임마다 음질특징 파라미터를 추출하여 배경잡음을 배제하거나 최소화하고자 한다.
음질특징 파라미터 생성부(210)는 켑스트럼 피크 현저도를 이용하여 음성프레임마다 음질특징 파라미터를 추출할 수 있다. 다시 말해 음질특징 파라미터는 켑스트럼 피크와 선형회귀 직선간의 거리를 이용하여 추출되고, 켑스트럼은 시간영역의 신호를 푸리에변환하여 얻은 스펙트럼에 로그값을 취한 후 이를 역푸리에변환한 것이고, 선형회귀 직선은 켑스트럼 곡선의 모양을 선형회귀 방법으로 근사화한 직선이다.
음성신호로부터 N(N은 자연수)개의 음성프레임이 형성되고 이들 N개의 음성프레임으로부터 N개의 음질특징 파라미터가 생성된다. 예컨대, n(n은 자연수)번째 프레임의 음질특징 파라미터를 P(n)이라고 하면, P(1), P(2), …, P(N)이 생성된다.
통계적 특징값 산출부(220)는 복수개의 음질특징 파라미터의 분포 특성으로부터 통계적 특징값을 산출한다. 즉, 통계적 특징값 산출부(220)는 N개의 음성프레임으로부터 구한 N개의 음질특징 파라미터 P(1), P(2), …, P(N)의 분포로부터 통계적 특징값을 산출한다. 통계적 특징값 산출부(220)는 이들 음질특징 파라미터의 최대값, 복수개의 음질특징 파라미터의 최소값, 복수개의 음질특징 파라미터의 중앙값, 복수개의 음질특징 파라미터의 평균값. 복수개의 음질특징 파라미터의 분산값 중 적어도 하나로부터 통계적 특징값을 산출할 수 있다.
통계적 특징값 산출부(220)는 복수개의 음질특징 파라미터의 최대값, 복수개의 음질특징 파라미터의 최소값, 복수개의 음질특징 파라미터의 중앙값, 복수개의 음질특징 파라미터의 평균값, 복수개의 음질특징 파라미터의 분산값 중 두 개 이상의 요소를 선택하고, 선택된 두 개 이상의 요소 중 적어도 하나의 요소에 가중치를 적용하여 통계적 특징값을 산출할 수 있다.
유효음성프레임 선별부(230)는 통계적 특징값에 기반하여 복수개의 음성프레임 중에서 하나 이상의 유효음성프레임을 선별한다. 예를 들면, 임계 파라미터값은 수학식 1과 같이 표현될 수 있다.
Figure 112016094098966-pat00001
수학식 1을 참조하면, TH는 예시적인 임계 파라미터값이고, Pmax는 P(n)의 최대값이고, Pmin은 P(n)의 최소값이고, α는 가중치를 나타낸다. 가중치는 음성데이터 처리량에 기반하여 추정된 수치, 통계적으로 산출된 수치, 또는 기술규정에 따른 수치일 수 있다. 예를 들면, 가중치는 0 내지 1 사이의 상수일 수 있으나 이에 한정되는 것은 아니다.
수학식 1에서 사용된 최대값과 최소값이 아닌 다른 예를 들면, P(n) (여기서 n=1,2,3,…,N) 값들을 두 개의 정규분포의 가중합 형태의 가우스 혼합 모델(Gaussian Mixture Model, GMM)로 모델링하고, 이때 두 개의 가중합 정규분포가 만나는 위치를 임계 파라미터값으로 설정할 수도 있다.
임계 파라미터값은 예시된 임계 파라미터값 선정방식 외에도 화자의 발화 패턴, 음성데이터의 특징 등을 고려하여 다양하게 설정될 수 있으며, 임계 파라미터값이 이에 한정되는 것은 아니다.
유효음성프레임 선별부(230)는 통계적 특징값으로부터 임계 파라미터값을 산출하고, 임계 파라미터값보다 큰 음질특징 파라미터를 갖는 음성프레임을 선별한다.
음성구간선별장치(200)가 음성프레임마다 음질특징 파라미터를 추출하고, 음질특징 파라미터로부터 통계적 특징값을 산출하고, 통계적 특징값에 기반하여 음성프레임 중에서 유효음성프레임을 선별함으로써, 배경잡음으로 인한 영향을 최소화한 음성구간에 대하여 화자를 인식할 수 있는 효과가 있다.
도 2는 본 발명의 일 실시예에 따른 화자인식장치의 동작을 예시한 흐름도이다.
과정 S210에서는 화자인식장치(10)가 화자로부터 음성신호를 획득하고 음성신호로부터 복수개의 음성프레임을 생성한다. 화자인식장치(10)는 마이크로폰으로 입력된 아날로그 음성신호를 디지털로 변환하거나 메모리에 기 저장된 디지털 음성신호로부터 기 설정된 프레임길이를 갖는 음성프레임을 생성할 수 있다.
과정 S220에서는 화자인식장치(10)가 복수개의 음성프레임마다 각각 음질특징을 추출하여 복수개의 음질특징 파라미터를 생성한다. 화자인식장치(10)는 음질특징 파라미터의 일례로 켑스트럼 피크 현저도(CPP) 파라미터를 생성할 수 있고, CPP는 켑스트럼 피크와 선형회귀 직선간의 거리를 이용하여 추출되고, 켑스트럼은 시간영역의 신호를 푸리에변환하여 얻은 스펙트럼에 로그값을 취한 후 이를 역푸리에변환한 것이고, 선형회귀 직선은 켑스트럼 곡선의 모양을 선형회귀 방법으로 근사화한 직선이다.
과정 S230에서는 화자인식장치(10)가 복수개의 음질특징 파라미터로부터 통계적 특징값을 산출한다. 화자인식장치(10)는 복수개의 음질특징 파라미터의 최대값, 복수개의 음질특징 파라미터의 최소값, 복수개의 음질특징 파라미터의 중앙값, 복수개의 음질특징 파라미터의 평균값, 복수개의 음질특징 파라미터의 분산값 중 두 개 이상의 요소를 선택하고, 선택된 두 개 이상의 요소 중 적어도 하나의 요소에 가중치를 적용하여 통계적 특징값을 산출할 수 있다.
과정 S240에서는 화자인식장치(10)가 통계적 특징값에 기반하여 복수개의 음성프레임 중에서 하나 이상의 유효음성프레임을 선별한다. 화자인식장치(10)는 통계적 특징값으로부터 임계 파라미터값을 산출하고, 임계 파라미터값보다 큰 음질특징 파라미터를 갖는 음성프레임을 선별할 수 있다.
과정 S250에서는 화자인식장치(10)가 하나 이상의 유효음성프레임에 대하여 화자를 인식한다. 화자인식장치(10)는 음질특징 파라미터 및 통계적 특징값에 근거하여, GMM-UBM, SVM, JFA, i-Vector, DNN, 또는 이들의 조합을 선택적으로 이용하여 화자를 인식할 수 있다.
각각의 과정에서 음성프레임마다 음질특징 파라미터를 추출하고, 음질특징 파라미터로부터 통계적 특징값을 산출하고, 통계적 특징값에 기반하여 음성프레임 중에서 유효음성프레임을 선별함으로써, 배경잡음으로 인한 영향을 최소화한 음성구간에 대하여 화자를 인식할 수 있고, 사용자의 음성으로 본인의 신원을 확인하거나 범죄수사에서 미지의 음성과 용의자의 음성을 비교하는 등의 다양한 응용분야에서 화자인식 기술의 신뢰성을 높일 수 있는 효과가 있다.
도 2에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 2에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.
본 실시예들에 따른 장치는 프로그램을 실행하기 위한 데이터를 저장하는 메모리, 프로그램을 실행하여 연산 및 명령하기 위한 마이크로프로세서 등을 전부 또는 일부 구비한 다양한 장치를 의미할 수 있다. 여기서 장치는 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합에 의해 로직회로 내에서 구현될 수 있고, 범용 또는 특정 목적 컴퓨터를 이용하여 구현될 수도 있다. 장치는 고정배선형(Hardwired) 기기, 필드 프로그램 가능한 게이트 어레이(Field Programmable Gate Array, FPGA), 주문형 반도체(Application Specific Integrated Circuit, ASIC) 등을 이용하여 구현될 수 있다. 또한, 장치는 하나 이상의 프로세서 및 컨트롤러를 포함한 시스템온칩(System on Chip, SoC)으로 구현될 수 있다.
본 실시예들에 따른 장치의 동작은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능한 매체에 기록될 수 있다. 컴퓨터 판독 가능한 매체는 실행을 위해 프로세서에 명령어를 제공하는 데 참여한 임의의 매체를 나타낸다. 컴퓨터 판독 가능한 매체는 프로그램 명령, 데이터 파일, 데이터 구조 또는 이들의 조합을 포함할 수 있다. 예를 들면, 자기 매체, 광기록 매체, 메모리 등이 있으며, 컴퓨터 프로그램은 네트워크로 연결된 컴퓨터 시스템 상에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 본 실시예를 구현하기 위한 기능적인(Functional) 프로그램, 코드, 및 코드 세그먼트들은 본 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.
본 실시예들은 본 실시예의 기술 사상을 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10: 화자인식장치 100: 음성획득부
200: 음성구간선별장치 210: 음질특징 파라미터 생성부
220: 통계적 특징값 산출부 230: 유효음성프레임 선별부
300: 화자인식부

Claims (10)

  1. 복수개의 음성프레임마다 각각 음질특징을 추출하여 복수개의 음질특징 파라미터를 생성하는 음질특징 파라미터 생성부;
    상기 복수개의 음질특징 파라미터로부터 통계적 특징값을 산출하는 통계적 특징값 산출부; 및
    상기 통계적 특징값에 기반하여 상기 복수개의 음성프레임 중에서 하나 이상의 유효음성프레임을 선별하는 유효음성프레임 선별부
    를 포함하고,
    상기 음질특징 파라미터는 켑스트럼 피크(Cepstrum Peak)와 선형회귀(Linear Regression) 직선간의 거리를 이용하여 추출되고, 켑스트럼은 시간영역의 신호를 푸리에변환하여 얻은 스펙트럼에 로그값을 취한 후 이를 역푸리에변환한 것이고, 선형회귀 직선은 켑스트럼 곡선의 모양을 선형회귀 방법으로 근사화한 직선인 것을 특징으로 하는 음성구간선별장치.
  2. 삭제
  3. 삭제
  4. 복수개의 음성프레임마다 각각 음질특징을 추출하여 복수개의 음질특징 파라미터를 생성하는 음질특징 파라미터 생성부;
    상기 복수개의 음질특징 파라미터로부터 통계적 특징값을 산출하는 통계적 특징값 산출부; 및
    상기 통계적 특징값에 기반하여 상기 복수개의 음성프레임 중에서 하나 이상의 유효음성프레임을 선별하는 유효음성프레임 선별부
    를 포함하고,
    상기 통계적 특징값 산출부는 상기 복수개의 음질특징 파라미터의 최대값, 상기 복수개의 음질특징 파라미터의 최소값, 상기 복수개의 음질특징 파라미터의 중앙값, 복수개의 음질특징 파라미터의 평균값, 복수개의 음질특징 파라미터의 분산값 중 두 개 이상의 요소를 선택하고, 상기 선택된 두 개 이상의 요소 중 적어도 하나의 요소에 가중치를 적용하여 상기 통계적 특징값을 산출하는 것을 특징으로 하는 음성구간선별장치.
  5. 제 1 항에 있어서,
    상기 유효음성프레임 선별부는 상기 통계적 특징값으로부터 임계 파라미터값을 산출하고, 상기 임계 파라미터값보다 큰 음질특징 파라미터를 갖는 음성프레임을 선별하는 것을 특징으로 하는 음성구간선별장치.
  6. 복수개의 음성프레임마다 각각 음질특징을 추출하여 복수개의 음질특징 파라미터를 생성하는 음질특징 파라미터 생성부;
    상기 복수개의 음질특징 파라미터로부터 통계적 특징값을 산출하는 통계적 특징값 산출부; 및
    상기 통계적 특징값에 기반하여 상기 복수개의 음성프레임 중에서 하나 이상의 유효음성프레임을 선별하는 유효음성프레임 선별부
    를 포함하고,
    상기 유효음성프레임 선별부는 상기 복수개의 음질특징 파라미터에 관한 두 개의 정규분포에 대하여 각각의 가중합을 구하고, 상기 두 개의 가중합 정규분포를 모델링하고, 상기 두 개의 가중합 정규분포가 만나는 위치를 임계 파라미터값으로 설정하는 것을 특징으로 하는 음성구간선별장치.
  7. 화자로부터 음성신호를 획득하고 상기 음성신호로부터 복수개의 음성프레임을 생성하는 음성획득부;
    상기 복수개의 음성프레임마다 각각 음질특징을 추출하여 복수개의 음질특징 파라미터를 생성하고, 상기 복수개의 음질특징 파라미터로부터 통계적 특징값을 산출하고, 상기 통계적 특징값에 기반하여 상기 복수개의 음성프레임 중에서 하나 이상의 유효음성프레임을 선별하는 음성구간선별장치; 및
    상기 하나 이상의 유효음성프레임에 대하여 화자를 인식하는 화자인식부
    를 포함하고,
    상기 음성구간선별장치는 상기 복수개의 음질특징 파라미터의 최대값, 상기 복수개의 음질특징 파라미터의 최소값, 상기 복수개의 음질특징 파라미터의 중앙값, 복수개의 음질특징 파라미터의 평균값, 복수개의 음질특징 파라미터의 분산값 중 두 개 이상의 요소를 선택하고, 상기 선택된 두 개 이상의 요소 중 적어도 하나의 요소에 가중치를 적용하여 상기 통계적 특징값을 산출하는 것을 특징으로 하는 화자인식장치.
  8. 제 7 항에 있어서,
    상기 음성획득부는 마이크로폰으로 입력된 아날로그 음성신호를 디지털로 변환하거나 메모리에 기 저장된 디지털 음성신호로부터 기 설정된 프레임길이를 갖는 음성프레임을 생성하는 것을 특징으로 하는 화자인식장치.
  9. 제 7 항에 있어서,
    상기 화자인식부는 상기 음질특징 파라미터 및 상기 통계적 특징값에 근거하여, GMM-UBM(Gaussian Mixture Model-Universal Background Model), SVM(Support Vector Machine), JFA(Joint Factor Analysis), i-Vector, DNN, 또는 이들의 조합을 선택적으로 이용하여 화자를 인식하는 것을 특징으로 하는 화자인식장치.
  10. 화자인식장치가 화자를 인식하는 방법에 있어서,
    화자로부터 음성신호를 획득하고 상기 음성신호로부터 복수개의 음성프레임을 생성하는 과정;
    상기 복수개의 음성프레임마다 각각 음질특징을 추출하여 복수개의 음질특징 파라미터를 생성하는 과정;
    상기 복수개의 음질특징 파라미터로부터 통계적 특징값을 산출하는 과정;
    상기 통계적 특징값에 기반하여 상기 복수개의 음성프레임 중에서 하나 이상의 유효음성프레임을 선별하는 과정; 및
    상기 하나 이상의 유효음성프레임에 대하여 화자를 인식하는 과정
    을 포함하고,
    상기 통계적 특징값을 산출하는 과정은 상기 복수개의 음질특징 파라미터의 최대값, 상기 복수개의 음질특징 파라미터의 최소값, 상기 복수개의 음질특징 파라미터의 중앙값, 복수개의 음질특징 파라미터의 평균값, 복수개의 음질특징 파라미터의 분산값 중 두 개 이상의 요소를 선택하고, 상기 선택된 두 개 이상의 요소 중 적어도 하나의 요소에 가중치를 적용하여 상기 통계적 특징값을 산출하는 것을 특징으로 하는 화자인식방법.
KR1020160124770A 2016-09-28 2016-09-28 음질특징을 이용한 화자인식장치 및 방법 KR101804787B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160124770A KR101804787B1 (ko) 2016-09-28 2016-09-28 음질특징을 이용한 화자인식장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160124770A KR101804787B1 (ko) 2016-09-28 2016-09-28 음질특징을 이용한 화자인식장치 및 방법

Publications (1)

Publication Number Publication Date
KR101804787B1 true KR101804787B1 (ko) 2017-12-06

Family

ID=60922120

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160124770A KR101804787B1 (ko) 2016-09-28 2016-09-28 음질특징을 이용한 화자인식장치 및 방법

Country Status (1)

Country Link
KR (1) KR101804787B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113557567A (zh) * 2019-02-08 2021-10-26 日本电气株式会社 说话者识别系统及其使用方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011077924A1 (ja) * 2009-12-24 2011-06-30 日本電気株式会社 音声検出装置、音声検出方法、および音声検出プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011077924A1 (ja) * 2009-12-24 2011-06-30 日本電気株式会社 音声検出装置、音声検出方法、および音声検出プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
최영호 외 3명, ‘화자인식을 위한 주파수 워핑 기반 특징 및 주파수-시간 특징 평가’, 말소리와 음성과학, 제7권 제1호, PP.3~10, 2015년 3월.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113557567A (zh) * 2019-02-08 2021-10-26 日本电气株式会社 说话者识别系统及其使用方法

Similar Documents

Publication Publication Date Title
CN106486131B (zh) 一种语音去噪的方法及装置
US8428945B2 (en) Acoustic signal classification system
US9536547B2 (en) Speaker change detection device and speaker change detection method
US8160877B1 (en) Hierarchical real-time speaker recognition for biometric VoIP verification and targeting
Gonzalez et al. PEFAC-A pitch estimation algorithm robust to high levels of noise
US9865253B1 (en) Synthetic speech discrimination systems and methods
CN109256138B (zh) 身份验证方法、终端设备及计算机可读存储介质
Hosseinzadeh et al. Combining vocal source and MFCC features for enhanced speaker recognition performance using GMMs
CN113327626A (zh) 语音降噪方法、装置、设备及存储介质
KR101762723B1 (ko) 피치 주기의 정확도를 검출하는 방법 및 장치
CN116490920A (zh) 用于针对由自动语音识别系统处理的语音输入检测音频对抗性攻击的方法、对应的设备、计算机程序产品和计算机可读载体介质
Mamatov et al. Software for preprocessing voice signals
CN111785294A (zh) 音频检测方法及装置、终端、存储介质
KR101808810B1 (ko) 음성/무음성 구간 검출 방법 및 장치
Singh et al. Linear Prediction Residual based Short-term Cepstral Features for Replay Attacks Detection.
CN110556098A (zh) 语音识别结果测试方法、装置、计算机设备和介质
KR101804787B1 (ko) 음질특징을 이용한 화자인식장치 및 방법
JP6724290B2 (ja) 音響処理装置、音響処理方法、及び、プログラム
Chaudhary et al. A review article on speaker recognition with feature extraction
Herrera-Camacho et al. Design and testing of a corpus for forensic speaker recognition using MFCC, GMM and MLE
Leuzzi et al. A Statistical Approach to Speaker Identification in Forensic Phonetics
KR20110079161A (ko) 이동 단말기에서 화자 인증 방법 및 장치
Islam et al. Neural-Response-Based Text-Dependent speaker identification under noisy conditions
Tsai et al. Bird Species Identification Based on Timbre and Pitch Features of Their Vocalization.
Hashim et al. Mobile microphone robust acoustic feature identification using coefficient of variance

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant