KR100704302B1 - 적응 훈련 기법에 의한 기준 데이터 구축 방법 - Google Patents

적응 훈련 기법에 의한 기준 데이터 구축 방법 Download PDF

Info

Publication number
KR100704302B1
KR100704302B1 KR1020030093951A KR20030093951A KR100704302B1 KR 100704302 B1 KR100704302 B1 KR 100704302B1 KR 1020030093951 A KR1020030093951 A KR 1020030093951A KR 20030093951 A KR20030093951 A KR 20030093951A KR 100704302 B1 KR100704302 B1 KR 100704302B1
Authority
KR
South Korea
Prior art keywords
data
feature information
pattern
reference data
initial parameter
Prior art date
Application number
KR1020030093951A
Other languages
English (en)
Other versions
KR20050062947A (ko
Inventor
김기홍
손욱호
김형래
김홍기
최진성
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020030093951A priority Critical patent/KR100704302B1/ko
Publication of KR20050062947A publication Critical patent/KR20050062947A/ko
Application granted granted Critical
Publication of KR100704302B1 publication Critical patent/KR100704302B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting
    • G10L2015/0636Threshold criteria for the updating

Abstract

본 발명에 따른 적응 훈련 기법에 의한 기준 데이터 구축 방법은, 데이터 추출 수단들 중 적어도 하나 이상으로부터 제공받은 데이터의 특징 정보를 추출한 후 이를 토대로 초기 파라미터를 설정하여 데이터베이스에 저장하는 단계와, 데이터 추출 수단들로부터 데이터를 수신하여 녹음하는 단계와, 녹음 데이터에서 특징 정보를 추출한 후 상기 특징 정보와 초기 파라미터를 비교하여 패턴에 속하는지를 판단하는 단계와, 판단 결과, 특징 정보가 패턴에 속하는 경우 상기 특징 정보의 패턴 근접도에 따른 결과값을 계산하여 출력부에 출력하는 단계와, 결과값이 임계값을 초과한 경우 특징 정보를 토대로 데이터베이스에 저장된 초기 파라미터를 업 데이트시키는 단계를 포함한다.
이와 같이, 본 발명은 사용자로부터 발생되는 개개 데이터의 신뢰성을 인식기를 통해 서전에 검증한 후 사용자의 실수나 주위의 잡음결과로 기준데이터를 생성하기 위한 데이터로 부적합하다고 판단되는 것들을 필터링함으로써, 신뢰성 있는 양질의 데이터로 기준 데이터를 생성할 수 있다.
또한, 본 발명은 패턴 처리가 필요한 각종 신호 처리 분야, 명령어를 바탕으로 하는 각종 인터페이스 분야, 머신 비젼 분야 등에 신뢰성 있고 양질의 기준 데이터를 제공할 수 있다.

Description

적응 훈련 기법에 의한 기준 데이터 구축 방법{A METHOD TO DESIGN THE REFERENCE DATA BASED ON THE ADAPTIVE TRAINING}
도 1은 본 발명에 적용될 기준 데이터 구축 시스템을 도시한 블록도이고,
도 2는 본 발명에 따른 적응 훈련 기법에 의한 기준 데이터 구축 과정을 도시한 흐름도이다.
<도면의 주요부분에 대한 부호의 설명>
100 : 뇌파 추출부 102 : 근육 신호 추출부
104 : 음성 신호 추출부 106 : 데이터 녹음부
108 : 인식기 110 : 출력부
112 : 데이터베이스
본 발명은 패턴 인식 분야의 기준 데이터 생성에 관한 것으로, 특히 인식기를 기반으로 하는 적응 훈련 기법에 의한 기준 데이터 구축 방법에 관한 것이다.
일반적으로 패턴 인식 분야에서 사용되는 기준 데이터는 신호 분석, 패턴 분석과 같은 여러 분야에서 사용되는 것으로, 실제 테스트를 위해 무작위로 입력되는 신호 내지 패턴의 유효성 판별 문제 시 비교 대상으로 활용되어진다. 이러한 기준 데이터는 패턴 인식 시스템의 내부에 미리 저장되어 있는 것이 일반적이다.
그러나, 이러한 비교를 통한 패턴 판별 방법은 일반적으로 기준 데이터가 충분한 신뢰성을 가지고 있다는 것으로 전제하는 것이기 때문에 그렇지 않을 경우 패턴 인식 시스템에 입력되는 여러 패턴들의 특징을 적절하게 반영하지 못하여 비교를 통한 판별에 많은 오류를 발생시킬 수 있는 문제점이 있다.
패턴 판별에 이용되는 기준 데이터 수집 방법은 목적하는 데이터 채집 시 오류의 발생 소자기 있을만한 행위나 어떠한 상태를 미리 규정하고 피험자로 하여금 그러한 규정들에 주의를 기울여 줄 것을 당부한 후 기준 데이터를 채집한다. 이렇게 채집된 데이터들은 피험자가 무의식중 실수로 만들어내는 여러 오류들을 포함하고 있기 때문에 이를 토대로 패턴 판별 시 높은 인식률을 기대하기 어렵다.
특히, 여러 신호들, 특히 시간에 따라 변화상태가 심한 랜덤 신호를 이용하여 각종 전기 장치들을 구동하려는 할 때는 신뢰성 있는 기준 데이터의 우선적 확보가 중요하게 요구되는 사항이라고 할 수 있다.
이런 이유로 패턴 인식 분야의 많은 연구원들은 신뢰성 있는 기준 데이터를 생성하기 위해 연구 노력중이다.
본 발명의 목적은 이와 같은 종래 기술의 문제점을 해결하기 위한 것으로, 사용자로부터 발생되는 개개 데이터의 신뢰성을 인식기를 통해 서전에 검증한 후 사용자의 실수나 주위의 잡음결과로 기준데이터를 생성하기 위한 데이터로 부적합하다고 판단되는 것들을 필터링함으로써, 신뢰성 있는 양질의 데이터로 기준 데이터를 생성할 수 있는 적응 훈련 기법에 의한 기준 데이터 구축 방법을 제공하고자 한다.
상기와 같은 목적을 달성하기 위하여 본 발명은, 데이터 추출 수단들 중 적어도 하나 이상으로부터 제공받은 데이터의 특징 정보를 추출한 후 이를 토대로 초기 파라미터를 설정하여 데이터베이스에 저장하는 단계와, 상기 데이터 추출 수단들로부터 데이터를 수신하여 녹음하는 단계와, 상기 녹음 데이터에서 특징 정보를 추출한 후 상기 특징 정보와 초기 파라미터를 비교하여 패턴에 속하는지를 판단하는 단계와, 상기 판단 결과, 상기 특징 정보가 패턴에 속하는 경우 상기 특징 정보의 패턴 근접도에 따른 결과값을 계산하여 출력부에 출력하는 단계와, 상기 결과값이 임계값을 초과한 경우 상기 특징 정보를 토대로 상기 데이터베이스에 저장된 초기 파라미터를 업 데이트시키는 단계를 포함한다.
이하에서 첨부한 도면을 참조하여 바람직한 실시 예에 대하여 상세히 설명하기로 한다.
도 1은 본 발명에 적용될 기준 데이터베이스 구축 시스템을 도시한 블록도이다.
도 1을 참조하면, 기준 데이터베이스 구축 시스템은 사용자로부터 측정 가능한 데이터를 추출하는 뇌파 추출부(100), 근육 신호 추출부(102), 음성 신호 추출 부(104), 추출된 데이터를 녹음시키는 데이터 녹음부(106), 녹음된 데이터를 분석하여 특징 정보를 추출한 후 이를 기반으로 인식 작업을 수행하는 인식기(108), 인식 결과값을 디스플레이 해주는 출력부(110), 초기 파라미터가 설정되어 있는 데이터베이스(112)를 포함한다. 여기서 뇌파 추출부(100)는 사용자의 머리 부분에 장착되어 뇌파 신호를 추출하고, 근육 신호 추출부(102)는 사용자의 근육 부위, 예를 들면 손목 어깨 등에 설치되어 사용자의 근육 신호를 추출하고, 음성 신호 추출부(104)는 마이크와 같은 장치로서 사용자의 음성 신호를 추출한다. 본 발명에서는 측정 가능한 데이터로 뇌파 신호, 근육 신호, 음성 신호를 예로 들어 설명하지만, 그 밖에 패턴화할 수 있는 여러 가지 신호가 모두 가능하다.
데이터 녹음부(106)는 추출된 데이터의 크기가 미약한 경우 이를 증폭한 후 디지털값으로 변환하여 인식기(108)에 전송할 수 있는 장치 일체를 의미하는 것으로, 컴퓨터 외부에 별도로 구성될 수도 있고, 컴퓨터 내부에 장착될 수도 있다.
인식기(108)의 경우는 컴퓨터 내부에서 운영되는 프로그램이거나 DSP 등의 전용 프로세서를 탑재한 스탠드 얼런(stand alone) 형식의 하드웨어일 수도 있으며, 데이터 녹음부(106)에서 제공되는 녹음 데이터에서 특징 정보를 추출한 후 특징 정보와 데이터베이스(112)에 저장된 초기 파리미터를 비교하여 패턴에 속할 경우 특징 정보의 패턴 정도에 따른 결과값을 산출하고, 결과값이 소정의 임계값을 이상인 경우 특징 정보를 이용하여 데이터베이스(112)에 저장된 초기 파라미터를 업 데이트시킨다.
출력부(110)는 모니터, LED, 스피커 등과 같은 시청각 효과를 나타낼 수 있 는 모든 장치이며, 결과값을 사용자에게 디스플레이해준다.
이상과 같은 구성을 갖는 기준 데이터베이스 구축 시스템의 동작 과정은 도 2를 참조하여 설명한다.
도 2를 참조하면, 먼저 초기 파라미터를 설정하는 단계로, 인식기(108)는 뇌파 추출부(100), 근육 신호 추출부(102), 음성 신호 추출부(104)로부터 추출된 적어도 하나 이상의 데이터를 데이터 녹음부(106)를 통해 입력받은 후 입력 데이터에서 특징 정보를 추출하고, 특징 정보를 토대로 초기 파라미터를 설정하여 데이터베이스(112)에 저장시킨다(S200).
이후, 데이터베이스(112)에 저장된 초기 파라미터를 업 데이트시키는 단계로, 인식기(108)는 뇌파 추출부(100), 근육 신호 추출부(102), 음성 신호 추출부(104)로부터 추출된 데이터를 데이터 녹음부(106)를 통해 입력받은 후 데이터에서 특징 정보를 추출한다(S202, S204).
인식기(108)에서 추출되는 특징 정보로는 LPC(Linear Prediction Coefficient), AR(Autoregressive) 파라미터, 파워(Power), 켑스트럼(Cepstrum), PCA(Principal Component Analysis), 웨이브렛 계수(Wavelet coefficient) 등 패턴 인식 분야에서 많이 사용하는 것들을 포함하고 있다.
인식기(108)는 특징 정보와 데이터베이스(112)에 저장된 초기 파라미터를 비교하여 특징 정보가 패턴으로 판별될 수 있는지를 판단한다(S206, S208).
단계 S206의 판단 결과, 데이터의 특징 정보가 패턴으로 판별될 수 있는 경우 인식기(108)는 특징 정보의 패턴 정도에 따른 결정값을 계산한다(S210). 결정 값은 사용자가 인식기(108)의 설정할 당시 내부적으로 사용한 알고리즘에 준하여 결정되며, 비용함수(Cost funtion) 값이나 확률값(Likelihood) 등의 다양한 형태로 표현될 수 있다.
단계 S206의 판단 결과, 데이터의 특징 정보가 패턴으로 판별될 수 없는 경우 인식기(108)는 해당 데이터를 무시한다.
인식기(108)는 결과값을 모니터, LED, 스피커 등과 같은 시청각 효과를 낼 수 있는 출력부(110)를 통해 디스플레이시켜 사용자에게 제시하며(S212), 디스플레이된 결과값은 사용자가 다음 데이터를 발생시킬 때 참고자료로 활용될 수 있다. 즉, 결과값이 높은 경우(인식 결과가 높을 경우) 사용자는 그러한 결과를 발생시킬 시 사용했던 행위나 상태 등을 고수하여 이후에 발생시키는 데이터에서도 이와 유사한 결과값을 나타내도록 의도적으로 노력하고, 만일 결과값이 낮은 경우(인식 결과가 낮은 경우) 취한 행위를 수정하여 인식기(108)로 입력되는 데이터의 패턴에 변화가 생기게한다. 이러한 과정을 거치는 동안 사용자는 무의식중에 인식 결과를 높일 수 있는 행위나 상태 등을 체득하게 됨으로써 발생시키는 데이터에 일관성을 가져올 수 있게 된다.
그 다음으로, 인식기(108)는 산출된 결과값과 저장된 소정 임계값을 비교하고(S214), 단계 S214의 비교 결과, 결과값이 소정 임계값보다 큰 경우 특징 정보를 이용하여 데이터베이스(112)에 저장된 초기 파라미터를 업데이트시키고, 결과값이 소정 임계값보다 작거나 같은 경우 입력된 데이터를 필터링시켜 버린다(S216).
이와 같은 과정은 사용자가 원하는 데이터의 개수를 확보하는 순간까지 무한 히 반복되게 되며, 횟수가 거듭될수록 오류 가능성이 있거나 혹은 제대로 취한 행위라 할지라도 인식 결과가 나쁜 경우에 해당되는 데이터는 인식기(108)에 의해 필터링되어 제거되므로 신뢰성 있고 양질의 데이터를 이용하여 기준 데이터베이스를 구축할 수 있다.
이상 설명한 바와 같이, 본 발명은 사용자로부터 발생되는 개개 데이터의 신뢰성을 인식기를 통해 서전에 검증한 후 사용자의 실수나 주위의 잡음결과로 기준데이터를 생성하기 위한 데이터로 부적합하다고 판단되는 것들을 필터링함으로써, 신뢰성 있는 양질의 데이터로 기준 데이터를 생성할 수 있다.
또한, 본 발명은 패턴 처리가 필요한 각종 신호 처리 분야, 명령어를 바탕으로 하는 각종 인터페이스 분야, 머신 비젼 분야 등에 신뢰성 있고 양질의 기준 데이터를 제공할 수 있다.

Claims (4)

  1. 데이터 추출 수단들 중 적어도 하나 이상으로부터 제공받은 데이터의 특징 정보를 추출한 후 이를 토대로 초기 파라미터를 설정하여 데이터베이스에 저장하는 단계와,
    상기 데이터 추출 수단들로부터 데이터를 수신하여 녹음하는 단계와,
    상기 녹음 데이터에서 특징 정보를 추출한 후 상기 특징 정보와 초기 파라미터를 비교하여 패턴에 속하는지를 판단하는 단계와,
    상기 판단 결과, 상기 특징 정보가 패턴에 속하는 경우 상기 특징 정보의 패턴 근접도에 따른 결과값을 계산하여 출력부에 출력하는 단계와,
    상기 결과값이 임계값을 초과한 경우 상기 특징 정보를 토대로 상기 데이터베이스에 저장된 초기 파라미터를 업 데이트시키는 단계
    를 포함하는 적응 훈련 기법에 의한 기준 데이터 구축 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 특징 정보로는,
    LPC. AR 파라미터, 파워, 켑스트럼, PCA 및 웨이브렛 계수 중 적어도 하나 이상을 이용하는 것을 특징으로 하는 적응 훈련 기법에 의한 기준 데이터 구축 방법.
  4. 제 1 항에 있어서,
    상기 결과값은,
    비용함수값이나 확률값을 이용하여 산출되는 것을 특징으로 하는 적응 훈련 기법에 의한 기준 데이터 구축 방법.
KR1020030093951A 2003-12-19 2003-12-19 적응 훈련 기법에 의한 기준 데이터 구축 방법 KR100704302B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030093951A KR100704302B1 (ko) 2003-12-19 2003-12-19 적응 훈련 기법에 의한 기준 데이터 구축 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030093951A KR100704302B1 (ko) 2003-12-19 2003-12-19 적응 훈련 기법에 의한 기준 데이터 구축 방법

Publications (2)

Publication Number Publication Date
KR20050062947A KR20050062947A (ko) 2005-06-28
KR100704302B1 true KR100704302B1 (ko) 2007-04-05

Family

ID=37254845

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030093951A KR100704302B1 (ko) 2003-12-19 2003-12-19 적응 훈련 기법에 의한 기준 데이터 구축 방법

Country Status (1)

Country Link
KR (1) KR100704302B1 (ko)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06241883A (ja) * 1993-02-12 1994-09-02 Yamatake Honeywell Co Ltd 3次元情報入力装置
JPH0792989A (ja) * 1993-09-22 1995-04-07 Oki Electric Ind Co Ltd 音声認識方法
US5791904A (en) * 1992-11-04 1998-08-11 The Secretary Of State For Defence In Her Britannic Majesty's Government Of The United Kingdom Of Great Britain And Northern Ireland Speech training aid
KR19990071189A (ko) * 1998-02-27 1999-09-15 윤종용 음성 인식 데이터 결정 장치 및 방법
JP2000075900A (ja) 1998-08-27 2000-03-14 Nec Eng Ltd 音声分析装置
JP2001022377A (ja) 1999-07-09 2001-01-26 Nec Corp 登録パターン更新を伴う話者照合装置及び方法
JP2001265385A (ja) 2000-03-15 2001-09-28 Omron Corp 話者認識装置
KR20020095502A (ko) * 2001-06-14 2002-12-27 엘지전자 주식회사 소음환경에서의 끝점 검출 방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5791904A (en) * 1992-11-04 1998-08-11 The Secretary Of State For Defence In Her Britannic Majesty's Government Of The United Kingdom Of Great Britain And Northern Ireland Speech training aid
JPH06241883A (ja) * 1993-02-12 1994-09-02 Yamatake Honeywell Co Ltd 3次元情報入力装置
JPH0792989A (ja) * 1993-09-22 1995-04-07 Oki Electric Ind Co Ltd 音声認識方法
KR19990071189A (ko) * 1998-02-27 1999-09-15 윤종용 음성 인식 데이터 결정 장치 및 방법
JP2000075900A (ja) 1998-08-27 2000-03-14 Nec Eng Ltd 音声分析装置
JP2001022377A (ja) 1999-07-09 2001-01-26 Nec Corp 登録パターン更新を伴う話者照合装置及び方法
JP2001265385A (ja) 2000-03-15 2001-09-28 Omron Corp 話者認識装置
KR20020095502A (ko) * 2001-06-14 2002-12-27 엘지전자 주식회사 소음환경에서의 끝점 검출 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
전자공학회지 제20권 제5호, pp.578-586 (1993.5)

Also Published As

Publication number Publication date
KR20050062947A (ko) 2005-06-28

Similar Documents

Publication Publication Date Title
Chen et al. Triple-classification of respiratory sounds using optimized s-transform and deep residual networks
CN109616140B (zh) 一种异常声音分析系统
CN107305774A (zh) 语音检测方法和装置
CN110917613A (zh) 一种基于振动触觉的游戏智能桌垫
CN110192864B (zh) 一种跨域心电图生物特征身份识别方法
CN108682433A (zh) 基于mfcc的一阶差分系数的心音类型识别方法
CN110689885A (zh) 机器合成语音识别方法、装置、存储介质及电子设备
US10910000B2 (en) Method and device for audio recognition using a voting matrix
KR100714721B1 (ko) 음성 구간 검출 방법 및 장치
KR100704302B1 (ko) 적응 훈련 기법에 의한 기준 데이터 구축 방법
Singh et al. Novel feature extraction algorithm using DWT and temporal statistical techniques for word dependent speaker’s recognition
CN109637509B (zh) 一种音乐自动生成方法、装置及计算机可读存储介质
JP2004287010A (ja) 波形認識方法及び装置、並びにプログラム
CN112687274A (zh) 一种语音信息的处理方法、装置、设备及介质
CN115310477A (zh) 基于分形特征和捕食者算法的泵机设备故障声音检测方法及其系统
CN113421546B (zh) 基于跨被试多模态的语音合成方法及相关设备
CN111339829B (zh) 用户身份鉴定方法、装置、计算机设备和存储介质
CN112131541A (zh) 一种基于振动信号的身份验证方法和系统
CN115862636B (zh) 一种基于语音识别技术的互联网人机验证方法
EP2382587A2 (en) Method for a pattern discovery and recognition
CN111883141A (zh) 一种文本半相关的声纹识别方法及系统
Tzagkarakis et al. Musical genre classification via generalized Gaussian and alpha-stable modeling
Okubo et al. Recognition of transient environmental sounds based on temporal and frequency features
CN115294986B (zh) 一种降低智能语音交互误唤醒的方法
CN115223575A (zh) 一种基于语音识别的变电设备声纹识别方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110228

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee