KR100198057B1 - 음성신호 특징 추출방법 및 장치 - Google Patents

음성신호 특징 추출방법 및 장치 Download PDF

Info

Publication number
KR100198057B1
KR100198057B1 KR1019960052018A KR19960052018A KR100198057B1 KR 100198057 B1 KR100198057 B1 KR 100198057B1 KR 1019960052018 A KR1019960052018 A KR 1019960052018A KR 19960052018 A KR19960052018 A KR 19960052018A KR 100198057 B1 KR100198057 B1 KR 100198057B1
Authority
KR
South Korea
Prior art keywords
zero
speech signal
maximum value
signal
speech
Prior art date
Application number
KR1019960052018A
Other languages
English (en)
Other versions
KR19980034074A (ko
Inventor
김도석
정재훈
김재원
이수용
Original Assignee
구자홍
엘지전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구자홍, 엘지전자주식회사 filed Critical 구자홍
Priority to KR1019960052018A priority Critical patent/KR100198057B1/ko
Publication of KR19980034074A publication Critical patent/KR19980034074A/ko
Application granted granted Critical
Publication of KR100198057B1 publication Critical patent/KR100198057B1/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/0308Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

본 발명은 파라메터를 요구하지 않고 음성신호의 레벨과 관련하여 균일한 성능을 유지할 수 있는 음성신호 특징 추출 방법 및 그 장치에 관한 것이다.
본 발명은 필터 뱅크를 이용하여 음성신호를 다수의 주파수 대역으로 분할한다. 또한, 본 발명은 영-교차 검출기에 의해 분할된 음성신호로부터 주파수 정보를 그리고 최대치 검출기에 의해 분할된 음성신호의 영-교차점 사이에서의 최대값을 각각 검출한다. 아울러, 본 발명은 주파수 정보에 따라 강도 정보를 누적하여 인터발 히스토그램을 발생한다.
이 결과 본 발명은 음성신호의 역신호 조건 및 발성 변화에 대해 매우 둔감한 특성을 제공하며 아울러 음성신호의 강도와 관련된 파라메터들을 요구하지 않는다. 또한, 본 발명은 일정한 성능을 유지할 수 있다.

Description

음성신호 특징 추출방법 및 장치
제1도는 본 발명의 실시예에 따른 음성신호 특징 추출장치의 블럭도.
제2도는 제1도에 도시된 상관 밴드패스필터의 출력 파형도.
제3도는 제1도에 도시된 비선형 처리기의 출력 특성도.
제4도는 제1도에 도시된 가산기의 출력 특성도.
* 도면의 주요부분에 대한 부호의 설명
10 : 필터 뱅크 20 : 가산기
30 : 영-교차 검출기 32 : 최대치 검출기
34 : 강도 보정기 34 : 인터발 히스토그램 발생기
ANF1내지 ANFi: 제1 내지 제i 비선형 처리기
CR1내지 CFi: 제1 내지 제i 상관 대역 통과 필터
본 발명은 음성인식 시스템에 사용되어 음성신호의 특징을 추출하는 기술에 관한 것으로, 특히 음성신호의 영-교차(Zero-crossings) 간격과 피크 진폭(Peak Amplitude)를 이용하여 특징을 추출하는 음성신호 특징 추출방법 및 장치에 관한 것이다.
통상의 음성 인식 시스템은 사용자가 발음한 음성을 인식하여 그 음성에 해당하는 단어, 구, 절, 또는 문장 등을 발생한다. 이를 위하여, 음성 인식 시스템은 폭넓고 다양한 학습으로부터 도출된 알고리즘들(Algorithms), 즉 통계적 패턴 인식(Statistical Pattern Recognition), 신호 처리(Signal Processing), 통신 이론(Communication Theory), 조합 수학(Combinational Mathematics), 및 언어학(Linguitics) 등으로 구성된다. 그리고 음성 인식 시스템은 음성의 분석 및 처리를 위해 음성 파형을 일정한 형태의 변수적 표시(Parametric Representation)로 변환하는 신호처리 입력단을 구비한다. 이 신호처리 입력단은 신호 처리를 포함한 음성 인식 작업의 정보량을 최소화 할 수 있어야 함과 아울러 소음(Noise), 마이크로폰(Microphone) 및 채널(Channel) 왜곡(Distortions)과 룸 반향(Room Reverberations)와 같은 역 신호 조건과 발성변화에 강해야 한다. 이러한 조건을 만족시키기 위하여, 신호처리 입력단은 음성을 순간 스펙트럼 포락선의 형태로 변환하는 스펙트럼 분석 방법을 핵심요소로 사용하고 있다.
이 스펙트럼 분석 방법에는 필터-뱅크 스펙트럼 분석 모델(Filter-bank Spectrum Analysis Model), 선형 예측 코딩 스팩트럼 분석 모델(Linear Predictive Coding Spectrum Analysis Model) 및 앙상불 인터발 히스토그램 모델(Ensemble Interval Histogram Model) 등이 있으나, 이 중 앙상불 인터발 히스토그램 모델이 상기 역신호 조건과 발성 변화에 가장 강한 것으로 알려져 있다. 이 앙상불 인터발 히스토그램 모델은 인간의 청각 기관을 모델링한 것으로, 1994년 1월호의 IEEE TRANSACTIONS ON SPEECH AND AUDIO PROCESSING, 볼륨2, 넘버 1, 파트2, 페이지 115 내지 132에서 Oded Ghitza에 의해 Auditory models and human performance in tasks related to speech coding and speech recognition의 명칭으로 발표되었다. 이 논문에 따르면, 앙상불 인터발 히스트그램 모델은 음성신호를 주파수와 강도(Intensity) 정보로 표현한다. 이를 위하여, 앙상블 인터발 히스토그램 모델은 음성신호를 다수의 주파수 대역으로 분리하기 위한 다수의 대역 통과 필터들과, 이들 대역통과 필터들의 출력신호들 각각에 대해 레벨교차 간격을 측정하기 위한 다수의 레벨교차 검출기들을 이용한다. 여기서, 레벨 교차 검출기들은 각각 대역 통과 필터의 출력신호의 강도(즉, 전압레밸)에 따라 교차 간격을 검출한다. 이를 상세히 하면, 레벨 교차 검출기는 대역 통과 필터의 출력신호와 강도가 센 경우에는 높은 레벨용 교차 검출기로 그리고 대역 통과 필터의 출력신호의 강도가 약한 경우에는 낮은 레벨용 교차 검출기에 의해 각각 교차 간격을 검출하여야만 한다. 예를 들어, 음성신호를 i개의 주파수 채널로 분리하고 음성신호의 강도를 j단계로 구분할 경우에 앙상블 인터발 히스토그램 모델은 i × j 개의 레벨 교차 검출기를 구비하여야 한다.
이와 같이, 앙상블 인터발 히스토그램 모델은 음성신호의 레벨 교차 속도(Level-crossings Rate)를 검출하기 때문에 레벨의 수와 그 레벨값들과 같은 파라메터를 미리 설정하여야만 한다. 그리고 앙상블 인터발 히스토그램 모델은 파라메터의 값이 증가됨에 따라 대단히 복잡한 회로구성을 갖게됨은 물론 대단히 많은 연산과정을 수행하여야 한다. 또한, 앙상블 인터발 히스토그램 모델은 레벨값과 그 갯수에 따라 성능의 변이가 심한 단점을 안고 있었다.
따라서, 본 발명의 목적은 파라메터를 요구하지 않고 음성신호의 레벨과 무관하게 균일한 성능을 유지할 수 있는 음성신호 특징 추출 방법 및 그 장치를 제공함에 있다.
상기 목적을 달성하기 위하여, 본 발명에 따른 음성신호 특징 추출 방법은 음성신호를 다수의 주파수 대역으로 분할하는 과정과, 분할된 음성신호로부터 주파수 정보와 강도 정보를 추출하는 과정과, 주파수 정보에 따라 강도 정보를 누적하여 인터발 히스토그램을 발생하는 과정을 포함한다.
본 발명에 따른 음성신호 특징 추출 장치는 음성신호를 다수의 주파수 대역으로 분할하는 필터 뱅크와, 필터 뱅크에 의해 분할된 음성신호의 영-교차점과 피크치를 검출하고 이들을 이용하여 인터발 히스토그램을 각각 생성하는 다수의 비선형 처리수단과, 다수의 비선형 처리수단의 출력신호를 취합하여 음성신호의 특징을 발생하는 가산수단을 구비한다.
상기 목적외에 본 발명의 다른 목적 및 잇점들은 첨부 도면을 참조한 다음의 바람직한 실시예에 대한 설명을 통하여 명백하게 드러나게 될 것이다.
이하, 본 발명의 실시예들을 첨부한 도면을 참조하여 상세히 설명하기로 한다.
제1도를 참조하면, 입력라인(11)으로부터 음성신호(X(t))를 입력하는 필터 뱅크(10)를 구비한 본 발명의 실시예에 따른 음성신호 특징 추출 장치가 도시되어 있다. 필터 뱅크(10)는 음성신호를 다수의 주파수 대역, 즉 i개의 주파수 대역으로 분할한다. 이를 위하여, 필터 뱅크(10)는 각각 상이한 주파수 대역 통과 특성을 가진 제1 내지 제i 상관 대역 통과 필터(CF1내지 CFi)로 구성된다. 이들 제1 내지 제i상관 대역 통과 필터(CF1내지 CFi)는 입력라인(11)으로부터 공통적으로 공급되는 음성신호를 필터링하여 자신들에게 할당된 주파수 대역의 음성신호를 각각 추출한다. 제1 내지 제i 상관 대역 통과 필터(CF1내지 CFi)에 의해 필터링된 i개의 주파수 대역 음성신호는 제2도에 도시된 바와같이 일정한 주파수를 또는 일정한 범위의 주파수를 갖게 된다.
상기 음성신호 특징 추출 장치는 제1 내지 제i 상관 대역 통과 필터(CF1내지 CFi)에 1 : 1로 대응되도록 접속된 제1 내지 제i 비선형 처리부(ANF1내지 ANFi)를 추가로 구비한다. 제1 내지 제i 비선정 처리부(ANF1내지 ANFi)는 제1 내지 제i 상관 대역 통과 필터(CF1내지 CFi)로부터 각각 입력되는 필터링된 음성신호에 대한 타이밍 정보와 강도(Intensity) 정보를 추출한다. 그리고 이들 비선형 처리부들(ANF1내지 ANFi)은 타이밍 정보와 강도 정보를 이용하여 제3도에 도시된 바와 같은 히스토그램을 발생한다. 이를 위하여, 제1 내지 제i 비선정 처리부(ANF1내지 ANFi)는 상관 대역 통과 필터(CF)로부터 필터링된 음성신호를 공통적으로 입력하는 영-교차 검출기(30)및 최대치 검출기(32)를 구비한다. 그리고 제1 내지 제i 비선형 처리부(ANF1내지 ANFi)는 최대치 검출기(32)로부터의 최대값을 보정하는 강도 보정기(36)와, 영 -교차 검출기(30)로부터의 타이밍 정보와 강도 보정기(36)로부터의 보정된 강도 정보를 입력하는 인터발 히스토그램 발생부(36)을 추가로 구비한다.
영-교차 검출기(30)은 상관 대역 통과 필터(CF)로부터의 필터링된 음성신호(Asin(2πfDt))의 증가방향의 영-교차점을 검출하고 증가방향의 영-교차점들간의 시간 간격을 측정한다. 그리고 영-교차 검출기(30)는 증가방향의 영-교차점들간의 시간 간격에 대한 타이밍 정보를 인터발 히스토그램 발생부(36)에 공급한다. 여기서, 증가방향의 영 -교차점은 영점 부근에서의 미분값이 양수인가를 검사함에 의해 검출된다. 즉, 제2도에 도시된 바와 같이, 필터링된 음성신호가(Asin(2πfDt))의 정현파인 경우에 6개의 영-교차점이 검출된다. 그리고 인접한 영 -교차점간의 시간간격은 모두 1/fD가 된다. 한편, 최대치 검출기(32)는 상관 대역 통과 필터(CF)로부터의 필터링된 음성신호의 증가방향의 영-교차점 사이에서의 최대값을 검출하고, 그 검출된 최대값을 강도 보정기(34)에 공급한다. 그리고 강도 보정기(34)는 포화 비선형 특성에 따라 최대치 검출기(32)로부터의 최대값을 보정한다. 이를 위하여, 강도 보정기(34)는 포화 비선정 특성에 따라 작성된 룩-업 데이블 또는 로그함수 연산기를 이용할 수 있다. 그러면, 인터발 히스토그램 발생부(36)는 영-교차 검출기(30)로부터의 시간 간격에 의해 음성신호의 주파수 구간을 설정함과 아울러 설정된 주파수 구간의 값에 따라 강도 보정기(34)로부터의 보정된 강도간(g(A)) 만큼씩 누적함으로써, 제3도와 같은 인터발 히스토그램을 발생한다. 제3도의 히스토그램은 제2도에 도시된 음성신호(Asin(2πfDt))에서 동일한 영-교차 간격이 5회 검출되고 이 간격의 역수인 주파수가 fD이므로 그 주파수(fD)에 해당하는 구간에서만 5g(A)의 크기를 갖게된다.
또한, 상기 음성신호 특징 추출 장치는 제1 내지 제i 비선형 처리부(ANF1내지 ANFi)로부터의 인터발 히스토그램들을 입력하는 가산기(20)을 구비한다. 가산기(20)는 제1 내지 제i 비선형 처리부(ANF1내지 ANFi)로부터 입력되는 i개의 인터발 히스토그램들을 취합하여 제4도에서와 같이 시간 및 주파수 영역에서 강도의 변화를 나타내는 3차원 히스토그램을 발생한다. 가산기(20)의 출력신호(y(t, f))를 수식으로 표현하면,
과 같이 된다. 여기서, K는 각 주파수 대역의 음성신호에서의 증가방향의 영-교차점의 수, N은 주파수 히스토그램에서의 분할된 주파수 대역의 수, jk는 k번째와 k+1번깨 영-교차점으로부터 계산된 주파수 구간의 인덱스, AK는 k번째와 k+1번째 영 -교차점 사이의 음성신호의 최대값,는 Kronecker delta를, 그리고 g()는 포화 비선형성을 나타낸다.
상술한 바와 같이, 본 발명의 실시예에 따른 음성신호 특징 추출 장치는 음성신호의 영-교차의 검출에 의해 히스토그램을 생성함으로써, 역신호 조건 및 발성 변화에 대해 매우 둔감한 특성을 제공하며 아울러 음성신호의 강도와 관련된 파라메터들을 요구하지 않는다. 또한, 본 발명의 실시예에 따른 음성신호 특징 추출 장치는 음성신호의 레벨과는 무관하게 일정한 성능을 유지할 수 있다. 더 나아가, 본 발명의 실시예에 따른 음성신호 특징 추출장치는 회로구성을 간소화함과 아울러 연산과정과 연산시간을 단축할 수 있는 잇점을 제공한다.

Claims (8)

  1. 음성신호에 해당하는 문구를 발생하는 음성 인식 시스템에 있어서, 상기 음성신호를 다수의 주파수 대역으로 분할하는 과정과, 상기 분할된 음성신호로부터 주파수 정보와 강도 정보를 추출하는 과정과, 상기 주파수 정보에 따라 상기 강도 정보를 누적하여 인터발 히스토그램을 발생하는 과정을 포함한 것을 특징으로 하는 음성신호 특징 추출 방법.
  2. 제1항에 있어서, 상기 주파수 정보는 상기 분할된 음성신호의 상향에서의 영-교차점들을 검출하고 상기 영-교차점들간의 시간 간격을 측정함에 의해 발생되는 것을 특징으로 하는 음성신호 특징 추출 방법.
  3. 제1항에 있어서, 상기 강도 정보는 상기 분할된 음성신호의 영 -교차점들 사이에서의 최대값인 것을 특징으로 하는 음성신호 특징 추출 방법.
  4. 제3항에 있어서, 상기 상기 최대값을 비선형 특성에 따라 보정하는 과정을 추가로 구비한 것을 특징으로 하는 음성신호 특징 추출 방법.
  5. 음성신호에 해당하는 문구를 발생하는 음성 인식 시스템에 있어서, 상기 음성신호를 다수의 주파수 대역으로 분할하는 필터 뱅크와, 상기 필터 뱅크에 의해 분할된 음성신호의 영-교차점과 피크치를 검출하고 이를 이용하여 인터발 히스토그램을 각각 생성하는 다수의 비선형 처리수단과, 상기 다수의 비선형 처리수단의 출력신호를 취합하여 음성신호의 특징을 발생하는 가산수단을 구비한 것을 특징으로 하는 음성신호 특징 추출 장치.
  6. 제5항에 있어서, 상기 다수의 비선형 처리수단은 각각 상기 필터 뱅크에 의해 분할된 음성신호의 영-교차점들을 검출하고 그 영-교차점들간의 시간 간격을 검출하는 영-교차점 검출수단과, 상기 필터 뱅크에 의해 분할된 음성신호의 상기 영-교차점들간의 최대값을 검출하는 최대값 검출수단과, 상기 영 -교차점 검출수단으로부터의 시간간격에 따라 상기 최대값 검출수단으로부터의 최대값을 누적하여 인터발 히스토그램을 발생하는 히스토그램 발생수단을 구비한 것을 특징으로 하는 음성신호 특징 추출 장치.
  7. 제6항에 있어서, 상기 영-교차 검출수단은 음성신호의 진폭이 증가하는 경우에만 영-교차점을 검출하도록 된 것을 특징으로 하는 음성신호 특징 추출 장치.
  8. 제6항 또는 제7항에 있어서, 상기 최대값 검출수단과 상기 인터발 히스토그램 발생수단 사이에 위치하여 최대값 검출수단으로부터의 최대값을 비선형 특성에 따라 보정하는 강도 보정수단을 추가로 구비한 것을 특징으로 하는 음성신호 특징 추출 장치.
KR1019960052018A 1996-11-05 1996-11-05 음성신호 특징 추출방법 및 장치 KR100198057B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019960052018A KR100198057B1 (ko) 1996-11-05 1996-11-05 음성신호 특징 추출방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019960052018A KR100198057B1 (ko) 1996-11-05 1996-11-05 음성신호 특징 추출방법 및 장치

Publications (2)

Publication Number Publication Date
KR19980034074A KR19980034074A (ko) 1998-08-05
KR100198057B1 true KR100198057B1 (ko) 1999-06-15

Family

ID=19480790

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960052018A KR100198057B1 (ko) 1996-11-05 1996-11-05 음성신호 특징 추출방법 및 장치

Country Status (1)

Country Link
KR (1) KR100198057B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101005858B1 (ko) * 2009-02-13 2011-01-05 한국과학기술원 히스토그램 등화를 이용한 음향모델 파라메터 적응 장치 및그 방법
KR101250051B1 (ko) * 2011-09-09 2013-04-03 (주)알고코리아 발음 교정을 위한 음성 신호 분석 방법 및 장치

Also Published As

Publication number Publication date
KR19980034074A (ko) 1998-08-05

Similar Documents

Publication Publication Date Title
US10134409B2 (en) Segmenting audio signals into auditory events
EP1402517B1 (en) Speech feature extraction system
CA2448182C (en) Segmenting audio signals into auditory events
US7457422B2 (en) Method and implementation for detecting and characterizing audible transients in noise
AU2002252143A1 (en) Segmenting audio signals into auditory events
US9454976B2 (en) Efficient discrimination of voiced and unvoiced sounds
CN102054480A (zh) 一种基于分数阶傅立叶变换的单声道混叠语音分离方法
CN109829515A (zh) 一种音频指纹匹配方法以及音频指纹匹配装置
KR100827153B1 (ko) 음성 신호의 유성음화 비율 검출 장치 및 방법
CN109473091A (zh) 一种语音样本生成方法及装置
CN110379438B (zh) 一种语音信号基频检测与提取方法及系统
KR100198057B1 (ko) 음성신호 특징 추출방법 및 장치
US4982433A (en) Speech analysis method
JPH02157800A (ja) 特徴抽出方式
CN113948088A (zh) 基于波形模拟的语音识别方法及装置
KR0176751B1 (ko) 음성인식 시스템의 특징추출방법
Czyżewski Soft processing of audio signals
KR0128851B1 (ko) 극성이 다른 가변길이 듀얼 임펄스의 스펙트럼 하모닉스 매칭에 의한 피치 검출 방법
Nakanishi et al. A sequential processing model for speech separation based on auditory scene analysis
Deshmukh et al. Detection of periodicity and aperiodicity in speech signal based on temporal information
KR0173924B1 (ko) 음성신호의 유성음 구간에서 이포크 검출 방법
KR100381372B1 (ko) 음성특징 추출장치
JPS6075898A (ja) 単語音声認識装置
Wiriyarattanakul et al. Accuracy Improvement of MFCC Based Speech Recognition by Preventing DFT Leakage Using Pitch Segmentation
Vass et al. Automatic Transcription of Monophonic Audio to MIDI

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080102

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee