KR20000032269A - Voice recognizing apparatus of sound equipment - Google Patents
Voice recognizing apparatus of sound equipment Download PDFInfo
- Publication number
- KR20000032269A KR20000032269A KR1019980048673A KR19980048673A KR20000032269A KR 20000032269 A KR20000032269 A KR 20000032269A KR 1019980048673 A KR1019980048673 A KR 1019980048673A KR 19980048673 A KR19980048673 A KR 19980048673A KR 20000032269 A KR20000032269 A KR 20000032269A
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- signal
- recognition
- noise
- speech
- Prior art date
Links
- 230000003044 adaptive effect Effects 0.000 claims abstract description 25
- 238000001514 detection method Methods 0.000 claims description 3
- 230000002093 peripheral effect Effects 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 9
- 230000005236 sound signal Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
본 발명은 음성인식에 관한 것으로, 특히 주변 잡음 속에서도 음향 기기를 제어할 수 있는 음향 기기의 음성인식장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to speech recognition, and more particularly, to a speech recognition apparatus of an acoustic device capable of controlling the acoustic device even in ambient noise.
현재, 일상 생활에 많이 사용되는 전자 제품을 음성 명령으로 동작시키는 일이 여러 분야에서 시도되고 있다.At present, there are many attempts to operate electronic products that are used in daily life by voice commands.
특히 TV, 오디오(audio) 등은 현대인의 생활에서 여가, 정보수집과 교육 등 중요한 부분을 차지하고 있다.In particular, TV, audio, and so on, play an important part in modern life such as leisure, information gathering and education.
따라서, 작동의 편리성을 향상시키기 위해 리모콘이 등장하고 이로 인하여 앉은 자리에서 손으로 자신이 원하는 동작을 시킬 수 있게 되었다.Therefore, the remote control has appeared to improve the convenience of operation, thereby allowing the user to perform the desired action by sitting in the seat.
그러나, 이것 또한 다른 기기를 작동시키는 것이기 때문에 편리성의 한계가 있으므로 인간에게 가장 친숙한 음성을 인식할 수 있는 장치를 고안하게 되었다.However, since this also operates other devices, there is a limit to the convenience, so that a device capable of recognizing the voice most familiar to humans has been devised.
이러한 음성인식의 대략적인 동작원리는 다음과 같다.The general operation principle of the speech recognition is as follows.
먼저, 음성인식 알고리즘은 크게 음성 구간 검출 과정과 특징(feature) 추출 과정, 그리고 매칭(matching) 과정으로 나눌 수 있다.First, the speech recognition algorithm may be classified into a speech section detection process, a feature extraction process, and a matching process.
즉, 도 1에 도시된 바와 같이 마이크(11)를 통해 음성신호가 입력되면 A/D 컨버터(12)에서 이를 디지털 신호로 변환한 후, 음성 구간 검출부(13)로 출력한다.That is, as shown in FIG. 1, when a voice signal is input through the microphone 11, the A / D converter 12 converts the voice signal into a digital signal and then outputs the digital signal to the voice section detector 13.
음성 구간 검출부(13)는 디지털 음성 신호를 짧은 구간의 신호(즉, 프레임)로 분할한 후, 각 프레임의 에너지와 영교차율(zero crossing rate) 그리고, 시간길이 정보를 이용하여 입력된 신호중에서 실제 발성된 음성 구간만을 검출한 후, 특징 추출부(14)로 출력한다.The speech section detector 13 divides the digital speech signal into short section signals (ie, frames), and then uses the energy, zero crossing rate, and time length information of each frame to actually input the signals. After detecting only the spoken speech section, the speech signal is output to the feature extractor 14.
특징 추출부(14)에서는 음성 구간에 해당하는 프레임의 특징을 추출하여 입력된 음성의 테스트 패턴을 만든 후, 매칭부(15)로 출력한다.The feature extractor 14 extracts a feature of a frame corresponding to the speech section, creates a test pattern of the input speech, and outputs the test pattern to the matcher 15.
매칭부(15)에서는 테스트 패턴과 기준 데이터용 메모리(16)에 저장된 각 기준 패턴들과 각각 비교하여 테스트 패턴과 가장 유사한 특징을 갖는 기준 패턴을 인식된 음성으로 출력한다.The matching unit 15 compares the test pattern with each of the reference patterns stored in the reference data memory 16 and outputs a reference pattern having a feature most similar to the test pattern as a recognized voice.
이때, 상기 기준 데이터용 메모리(16)에 음성 신호의 기준 패턴을 저장하는 경우도 마찬가지로 상기 특징 추출부(14)에서 음성 구간에 해당하는 프레임의 특징을 추출하여 기준 패턴을 만든 후, 기준 데이터용 메모리에 저장하는데, 이와 같은 동작을 인식하고자 하는 음성 신호에 대하여 반복 수행하여 기준 패턴을 기준 데이터용 메모리(16)에 데이터베이스화한다.In this case, when the reference pattern of the voice signal is stored in the reference data memory 16, the feature extractor 14 extracts a feature of a frame corresponding to the voice section to create a reference pattern, and then uses the reference data. In the memory, the voice signal to recognize the operation is repeatedly performed to database the reference pattern in the reference data memory 16.
그러나, 이와 같은 기존의 음성인식 장치는 주변 환경 잡음이 있을 경우 그 성능이 저하된다.However, such a conventional speech recognition device is degraded when there is ambient noise.
특히, TV, 오디오와 같이 음향 신호를 발생하는 기기에 마이크를 장착하여 음성인식을 할 경우에는 음향 기기에서 발생하는 음향의 크기가 매우 크므로 음성인식을 할 수가 없다.In particular, when a microphone is mounted on a device generating a sound signal, such as a TV or an audio device, the voice may not be recognized because the sound generated by the sound device is very loud.
따라서, 이러한 주변 음향의 존재에도 불구하고 음성인식이 가능한 장치의 개발이 필요하다.Therefore, there is a need to develop a device capable of speech recognition despite the presence of such ambient sounds.
본 발명은 이와 같은 문제를 해결하기 위한 것으로 음향 기기에서 발생하는 주변 음향에도 불구하고 음성인식이 가능한 음향 기기의 음성인식장치을 제공하는데 그 목적이 있다.An object of the present invention is to provide a voice recognition device for an audio device capable of recognizing voice despite the ambient sound generated by the sound device.
본 발명의 다른 목적은 음성인식 알고리즘을 마이크가 내장된 음향 기기에 적용하여 음성으로 음향 기기를 동작시키는데 있다.Another object of the present invention is to apply a voice recognition algorithm to a sound device with a built-in microphone to operate the sound device by voice.
도 1은 일반적인 음성 인식 시스템의 블록구성도1 is a block diagram of a general speech recognition system
도 2는 본 발명에 따른 음향 기기의 음성인식장치의 블록구성도2 is a block diagram of a voice recognition device of an acoustic device according to the present invention;
도 3은 도 2의 적응 필터부를 보여주는 블록구성도3 is a block diagram illustrating an adaptive filter of FIG. 2.
도면의 주요부분에 대한 부호의 설명Explanation of symbols for main parts of the drawings
21 : 적응 필터부 22 : 음성 인식부21: adaptive filter unit 22: speech recognition unit
25 : 제 1 혼합기 26 : 적응 필터25: first mixer 26: adaptive filter
27 : 제 2 혼합기 28 : 음성 구간 검출부27: second mixer 28: voice section detection unit
29 : 특징 추출부 30 : 매칭부29: feature extraction unit 30: matching unit
31 : 인식 결과 확인부 32 : 인식 결과 수행부31: recognition result checking unit 32: recognition result performing unit
본 발명에 따른 음향 기기의 음성인식장치의 특징은 음향 기기에서 발생한 노이즈 신호를 적어도 하나 이상의 마이크로부터 입력된 음성신호에 적응시켜서 상기 노이즈 신호가 제거된 음성신호를 출력하는 적응 필터부와, 적응 필터부의 음성신호를 인가받아 음성 구간 검출 알고리즘을 수행하여 음성 구간을 검출하고, 검출된 음성 신호을 분석하여 특징을 추출하며, 그 추출된 특징을 기준 패턴과 비교하거나 기준 모델의 발생 확률을 계산하여 입력된 음성을 인식 또는 거부하고, 상기 추출된 특징값 및 인식 결과를 인식기에 적응하여 인식된 결과를 주변기기에 수행하도록 하는 음성인식부로 구성되는데 있다.Features of the speech recognition device of the acoustic device according to the present invention is an adaptive filter unit for adapting a noise signal generated in the audio device to the audio signal input from at least one microphone and outputting the speech signal from which the noise signal is removed, and an adaptive filter A speech section is detected by applying a negative speech signal to detect a speech section, extracts a feature by analyzing the detected speech signal, and compares the extracted feature with a reference pattern or calculates a probability of occurrence of the reference model. The speech recognition unit is configured to recognize or reject a voice, and to adapt the extracted feature value and the recognition result to a recognizer to perform the recognized result to a peripheral device.
본 발명의 다른 특징은 적응 필터부를 음향 기기에서 발생한 노이즈 신호와 마이크로부터 입력된 음성신호를 가산하여 노이즈가 혼합된 음성신호를 출력하는 제 1 혼합기와, 제 1 혼합기로부터 인가되는 노이즈가 혼합된 음성신호와 하기 적응 필터로부터 인가되는 필터링된 신호를 감산하여 노이즈가 제거된 음성신호를 출력하는 제 2 혼합기와, 인가되는 노이즈 신호를 필터링하여 출력하고 제 2 혼합기로부터 출력되는 노이즈가 제거된 음성신호를 피드백하여 필터의 계수를 조정하는 적응 필터로 구성하는데 있다.According to another aspect of the present invention, there is provided a first mixer which adds a noise signal generated from an acoustic device and a voice signal input from a microphone, and outputs a voice signal mixed with noise, and a voice mixed with noise applied from the first mixer. A second mixer for subtracting the signal and the filtered signal applied from the following adaptive filter, and outputting a noise-free voice signal; and a filter for outputting the applied noise signal and filtering out the noise-free voice signal output from the second mixer. It consists of an adaptive filter that adjusts the coefficients of the filter by feedback.
본 발명의 또 다른 특징은 음성인식부에서 음성 구간 검출시, 적응 필터의 계수 변화 및 음향 기기에서 발생한 노이즈 신호와 마이크로부터 입력된 음성신호의 특징을 이용하는데 있다.Another feature of the present invention is to use the characteristics of the noise signal generated from the coefficient change of the adaptive filter and the noise signal from the audio device and the voice signal input from the microphone when detecting the speech section in the speech recognition unit.
상기와 같은 특징을 갖는 본 발명에 따른 음향 기기의 음성인식장치를 첨부된 도면을 참조하여 설명하면 다음과 같다.Referring to the accompanying drawings, a voice recognition device for an acoustic device according to the present invention having the above characteristics is as follows.
먼저, 본 발명의 개념은 음향 기기에서 발생하는 음향 신호(노이즈)를 기준 신호로 이용한 적응 필터(adaptive filter)를 구성하여 음향 기기에서 발생하는 노이즈(noise)를 제거함으로써 음향 기기에도 음성 인식을 가능하게 하는데 있다.First, the concept of the present invention forms an adaptive filter using a sound signal (noise) generated by the sound device as a reference signal to remove the noise generated by the sound device, thereby enabling speech recognition to the sound device. To make it happen.
도 2는 본 발명에 따른 음향 기기의 음성인식장치를 보여주는 블록도로서, 도 2에 도시된 바와 같이 크게 적응 필터부(21)와 음성 인식부(22)로 나눌 수 있다.FIG. 2 is a block diagram illustrating a speech recognition apparatus of an acoustic device according to the present invention. As shown in FIG. 2, the adaptive filter unit 21 and the speech recognition unit 22 may be largely divided.
적응 필터부(21)는 도 3에 도시된 바와 같이 음향 기기에서 발생한 노이즈와 마이크로부터 입력된 음성신호를 가산하여 노이즈가 혼합된 음성신호를 출력하는 제 1 혼합기(25)와, 제 1 혼합기(25)로부터 인가되는 노이즈가 혼합된 음성신호와 적응 필터(26)로부터 인가되는 필터링된 신호를 감산하여 노이즈가 제거된 음성신호를 출력하는 제 2 혼합기(27)와, 인가되는 노이즈를 필터링하여 출력하고 제 2 혼합기(27)로부터 출력되는 노이즈가 제거된 음성신호를 피드백하여 필터의 계수를 조정하는 적응 필터(26)로 구성된다.As shown in FIG. 3, the adaptive filter unit 21 includes a first mixer 25 for adding a noise signal generated from an audio device and a voice signal input from a microphone, and outputting a voice signal mixed with noise, and a first mixer ( A second mixer 27 which subtracts the voice signal mixed with the noise applied from 25 and the filtered signal applied from the adaptive filter 26 to output the voice signal from which the noise is removed, and filters and outputs the applied noise. And an adaptive filter 26 for feeding back the speech signal from which the noise output from the second mixer 27 is removed to adjust the coefficient of the filter.
여기서, 노이즈는 제어하려는 음향 기기에서 발생하는 음향 신호를 의미하는 것이고, 마이크로부터 입력된 음성신호는 외부의 노이즈 신호와 음향 기기에서 발생한 노이즈 신호가 포함된 음성신호를 의미한다.Here, the noise refers to an acoustic signal generated from the sound device to be controlled, and the audio signal input from the microphone refers to an audio signal including an external noise signal and a noise signal generated from the audio device.
또한, 마이크는 한 개 이상을 이용할 수 있으며, 음향 기기에 부착하거나 또는 음향 기기 외부의 다른 곳에 장착하여 음향 또는 음성 신호를 받아들인다.In addition, one or more microphones may be used, and may be attached to an acoustic device or mounted elsewhere outside the acoustic device to receive an acoustic or audio signal.
그리고, 음성 인식부(22)는 적응 필터(26)의 계수 변화 및 마이크를 통해 입력되는 음성신호와 노이즈의 특징을 이용하여 마이크를 통해 인가된 신호로부터 음성 신호 구간을 추출하는 음성 구간 추출부(28)와, 검출된 음성 신호로부터 특성을 나타내는 파라미터를 추출해내는 특징 추출부(29)와, 추출된 파라미터를 기준 패턴과 비교하거나 기준 모델의 발생확률을 계산하여 입력된 음성을 인식하는 매칭부(30)와, 인식된 결과의 유사도 또는 발생 확률값이 일정 수준 이하이면 인식을 거부하는 인식 결과부(31)와, 인식된 결과를 수행하는 인식 결과 수행부(32)와, 추출된 특징값 및 인식 결과를 이용해 음성 인식 장치를 화자 또는 사용환경의 특성에 맞게 적응시키는 인식기 적응부(33)로 구성된다.The voice recognition unit 22 extracts a voice signal section from a signal applied through the microphone by using the coefficient change of the adaptive filter 26 and the voice signal and noise input through the microphone ( 28), a feature extraction unit 29 for extracting a parameter representing a characteristic from the detected speech signal, and a matching unit for recognizing the input speech by comparing the extracted parameter with a reference pattern or calculating the probability of occurrence of the reference model ( 30), a recognition result unit 31 which rejects recognition when the similarity or probability of occurrence of the recognized result is below a predetermined level, a recognition result performing unit 32 that performs the recognized result, and extracted feature values and recognition It is composed of a recognizer adaptor 33 adapted to adapt the speech recognition apparatus to the characteristics of the speaker or the use environment using the results.
이와 같이 구성되는 본 발명의 동작을 도 2 및 도 3을 참조하여 설명하면 다음과 같다.The operation of the present invention configured as described above will be described with reference to FIGS. 2 and 3.
먼저, 음향 기기에서 음성 인식을 하기위해서는 마이크에서 인가되는 음성신호로부터 음향 기기에서 발생하는 음향 신호(노이즈)를 제거해야 한다.First, in order to recognize a voice in an acoustic device, an acoustic signal (noise) generated from the audio device must be removed from the voice signal applied from the microphone.
그러기 위해서는 음향 기기의 발생 신호와 마이크에서 인가되는 음성 신호의 차이를 최소화하도록 적응 필터 계수를 조정해야 한다.To do this, the adaptive filter coefficients should be adjusted to minimize the difference between the signal generated by the acoustic device and the voice signal applied from the microphone.
즉, 음향 기기에서 발생한 노이즈와 마이크로부터 입력된 음성신호가 제 1 혼합기(25)에서 가산되어 노이즈가 혼합된 음성신호를 출력하고 적응 필터(26)는 노이즈 신호를 필터링한다.That is, the noise generated in the acoustic device and the voice signal input from the microphone are added by the first mixer 25 to output the voice signal in which the noise is mixed, and the adaptive filter 26 filters the noise signal.
이 적응 필터(26)의 출력 신호와 제 1 혼합기(25)의 출력 신호는 제 2 혼합기(27)로 인가되어 노이즈가 제거된 음성신호를 출력하게 된다.The output signal of the adaptive filter 26 and the output signal of the first mixer 25 are applied to the second mixer 27 to output an audio signal from which noise is removed.
그리고, 노이즈가 제거된 음성신호는 피드백(feedback)되어 적응 필터(26)로 다시 인가되어 적응 필터의 계수를 조정하게 된다.The speech signal from which the noise is removed is fed back to the adaptive filter 26 to adjust the coefficients of the adaptive filter.
이와 같이 적응 필터부(21)로부터 출력된 노이즈가 제거된 음성 신호는 음성 구간 검출부(28)로 인가되어 그 음성 신호 중에서 실제로 발성된 구간, 즉 음성 구간만을 검출한다.In this way, the speech signal from which the noise output from the adaptive filter unit 21 is removed is applied to the speech section detecting section 28 to detect only the section actually spoken, i.e., the speech section.
여기서, 음성 구간은 적응 필터의 계수 변화 및 마이크로부터 입력되는 음성 신호와 음향 기기에서 발생하는 노이즈 신호의 특징을 이용하여 검출된다.Here, the voice section is detected using the coefficient change of the adaptive filter and the characteristics of the voice signal input from the microphone and the noise signal generated by the audio device.
이들을 이용하는 이유는 적응 필터의 경우, 필터 계수는 기준 신호와 마이크로부터 입력되는 주신호가 현저하게 다를 경우 변화가 매우 심하게 나타난다.The reason for using them is that in the case of the adaptive filter, the filter coefficient is very severely changed when the main signal input from the reference signal and the microphone are significantly different.
즉, 음성이 입력되는 동안에 필터 계수 변화는 다른 구간과 현격한 차이를 보이게 된다.That is, while the voice is input, the filter coefficient change is remarkably different from other intervals.
그러므로 계수 변화량을 계속 모니터링하게 되면 변화량이 큰 부분을 음성 구간으로 추출할 수 있는 것이다.Therefore, if the coefficient variation is continuously monitored, a large portion of the variation can be extracted as the voice interval.
여기서, 각 계수 변화량은 단구간 평균 계수 변화량을 측정한 것이다.Here, each coefficient change amount measures the average coefficient change amount of a short segment.
이러한 필터 계수 변화량과 더불어 기준 신호와 주신호의 스펙트럼 정보, 에너지 정보 등을 같이 이용하여 음성 구간을 추출한다.In addition to the filter coefficient variation, the speech section is extracted by using the spectrum information and the energy information of the reference signal and the main signal together.
이어, 특징 추출부(29)에서는 검출된 음성 구간 신호의 특징을 추출하게 되는데, 보통 스펙트럼 정보를 나타내는 파라미터를 이용한다.Next, the feature extractor 29 extracts a feature of the detected speech section signal, and usually uses a parameter representing spectrum information.
그리고, 매칭부(30)는 추출된 파라미터를 기준 패턴과 비교하거나 기준 모델의 발생확률을 계산하여 입력된 음성을 인식한다.The matching unit 30 recognizes the input voice by comparing the extracted parameter with a reference pattern or by calculating a probability of occurrence of the reference model.
즉, 입력된 음성과 가장 유사한 음성을 등록되어 있는 음성중에서 찾는데, 등록되어 있는 각 단어에 대한 유사도를 모두 계산한 뒤, 가장 유사한 등록 단어를 추출한다.That is, the voice most similar to the input voice is searched among the registered voices. After all the similarities of the registered words are all calculated, the most similar registered words are extracted.
유사도를 측정하는 방법의 예로 DTW(Dynamic Time Warping) 알고리즘 또는 은닉 마코프 모델(Hidden Markov Model ; HMM) 확률값을 이용할 수 있다.As an example of measuring similarity, a dynamic time warping (DTW) algorithm or a hidden markov model (HMM) probability value may be used.
본 발명의 매칭부(30)에서는 음성인식 장치의 성능을 향상시키기 위하여 2단계 인식 방법을 이용할 수 있다.The matching unit 30 of the present invention may use a two-stage recognition method to improve the performance of the voice recognition device.
2단계 인식은 키 워드(key word) 인식과정과 명령어 인식과정으로 나뉘는데, 키 워드 인식과정은 미리 정해진 한 가지 단어가 발성되었는가를 인식한다.Two-stage recognition is divided into a key word recognition process and a command recognition process. The key word recognition process recognizes whether a single word is uttered.
즉, 인식 대상 어휘는 1개이며 인식 결과 확인과정에 의해 "인식" 또는 "거부"를 결정하는데, 인식 단어를 최소화함으로써 인식율을 향상시킨다.That is, there is only one vocabulary to be recognized, and the "recognition" or "deny" is determined by the recognition result checking process, and the recognition rate is improved by minimizing the recognition words.
제어 대상 기기는 초기 상태로써 키 워드 인식 모드로 동작하고, "인식"으로 결정되면 제어하려는 기기를 명령어 인식 모드로 설정하고 기기에서 발생하는 노이즈를 일정 레벨(level) 이하로 제한한다.The device to be controlled operates in the keyword recognition mode as an initial state, and when it is determined as "recognition", sets the device to be controlled to the command recognition mode and limits the noise generated by the device to a predetermined level or less.
그리고, 명령어 인식 과정은 기기의 명령어를 인식하는데, 인식 결과를 수행하고 기기를 본래의 상태인 키 워드 인식 모드로 설정한다.In addition, the command recognition process recognizes a command of the device, performs a recognition result, and sets the device to a keyword recognition mode in its original state.
이어, 인식 결과 확인부(31)는 가장 유사한 등록 단어와 입력 음성의 유사도가 일정 룰에 의해 거부될 경우, 등록되어 있지 않은 음성이 입력된 것으로 보고 다시 음성을 받아들인다.Then, if the similarity between the most similar registered words and the input voice is rejected by the predetermined rule, the recognition result confirming unit 31 sees that the voice not registered is input and accepts the voice again.
이때, 단순한 유사도를 측정하여 이용할 수도 있으며 여러 가지 형태의 필터 모델을 이용할 수도 있다.In this case, a simple similarity may be measured and used, or various types of filter models may be used.
이는 키 워드 인식 과정 및 명령어 인식 과정에 모두 적용된다.This applies to both keyword recognition and command recognition.
그리고, 인식 결과 수행부(32)는 인식 과정이 성공하면 그 결과에 따라 명령을 수행한다.If the recognition process is successful, the recognition result execution unit 32 executes a command according to the result.
한편, 인식기 적응부(33)는 추출된 특징값 및 인식 결과를 이용해 음성 인식 장치를 화자 또는 사용환경의 특성에 맞게 적응시킨다.On the other hand, the recognizer adaptor 33 adapts the speech recognition apparatus to the characteristics of the speaker or the use environment using the extracted feature values and recognition results.
이 과정은 기기의 실제 사용 이전의 훈련과정으로써 이루어지거나 또는 실제 사용하는 도중에 이루어질 수 있다.This can be done as a training course before the actual use of the device or during the actual use.
본 발명에 따른 음향 기기의 음성인식장치는 다음과 같은 효과가 있다.The speech recognition apparatus of the acoustic device according to the present invention has the following effects.
첫째, TV, 오디오, 라디오 등의 음향 기기를 음성 인식에 의해 제어함으로써, 그의 편리성 및 부가가치를 증대시킬 수 있다.First, by controlling sound devices such as TV, audio, and radio by voice recognition, convenience and added value thereof can be increased.
둘째, 음향 기기에 음성 인식 기능을 적용함에 있어 가장 큰 문제였던 노이즈 문제를 해결함으로써, 음향 기기에서 발생하는 노이즈에도 불구하고 음성 인식을 가능케할 수 있다.Second, by solving the noise problem, which is the biggest problem in applying the voice recognition function to the audio device, it is possible to enable the voice recognition in spite of the noise generated in the sound device.
Claims (2)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019980048673A KR100587260B1 (en) | 1998-11-13 | 1998-11-13 | speech recognizing system of sound apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019980048673A KR100587260B1 (en) | 1998-11-13 | 1998-11-13 | speech recognizing system of sound apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20000032269A true KR20000032269A (en) | 2000-06-05 |
KR100587260B1 KR100587260B1 (en) | 2006-09-22 |
Family
ID=19558204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019980048673A KR100587260B1 (en) | 1998-11-13 | 1998-11-13 | speech recognizing system of sound apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100587260B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020008629A (en) * | 2000-07-24 | 2002-01-31 | 배천수 | power control method using voice identificotion |
WO2002075722A1 (en) * | 2001-02-20 | 2002-09-26 | Sungwoo Techno Inc. | A voice command identifier for a voice recognition system |
KR20040050765A (en) * | 2002-12-09 | 2004-06-17 | 엘지전자 주식회사 | method for recognizing speech in sound apparatus |
KR100651940B1 (en) * | 2004-08-31 | 2006-12-06 | 엘지전자 주식회사 | Apparatus and method for recognizing a voice for an audio-visual AV system |
US8046223B2 (en) | 2003-07-07 | 2011-10-25 | Lg Electronics Inc. | Apparatus and method of voice recognition system for AV system |
WO2014000658A1 (en) * | 2012-06-28 | 2014-01-03 | 腾讯科技(深圳)有限公司 | Method and device for eliminating noise, and mobile terminal |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR0176751B1 (en) * | 1991-10-14 | 1999-04-01 | 이헌조 | Feature Extraction Method of Speech Recognition System |
JP3301775B2 (en) * | 1992-04-09 | 2002-07-15 | 三洋電機株式会社 | Voice recognition control device |
JP3257832B2 (en) * | 1992-09-04 | 2002-02-18 | 富士通テン株式会社 | Noise reduction circuit for speech recognition device |
KR0170140B1 (en) * | 1996-06-22 | 1999-03-30 | 배순훈 | Voice recognition unit of home automation |
KR19980049884A (en) * | 1996-12-20 | 1998-09-15 | 박병재 | Speech recognition processing device of car and its method |
KR19990061297A (en) * | 1997-12-31 | 1999-07-26 | 정몽규 | Voice command recognition method and vehicle voice command recognition device |
-
1998
- 1998-11-13 KR KR1019980048673A patent/KR100587260B1/en not_active IP Right Cessation
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020008629A (en) * | 2000-07-24 | 2002-01-31 | 배천수 | power control method using voice identificotion |
WO2002075722A1 (en) * | 2001-02-20 | 2002-09-26 | Sungwoo Techno Inc. | A voice command identifier for a voice recognition system |
KR100368289B1 (en) * | 2001-02-20 | 2003-01-24 | (주)성우테크노 | A voice command identifier for a voice recognition system |
KR20040050765A (en) * | 2002-12-09 | 2004-06-17 | 엘지전자 주식회사 | method for recognizing speech in sound apparatus |
US8046223B2 (en) | 2003-07-07 | 2011-10-25 | Lg Electronics Inc. | Apparatus and method of voice recognition system for AV system |
KR100651940B1 (en) * | 2004-08-31 | 2006-12-06 | 엘지전자 주식회사 | Apparatus and method for recognizing a voice for an audio-visual AV system |
WO2014000658A1 (en) * | 2012-06-28 | 2014-01-03 | 腾讯科技(深圳)有限公司 | Method and device for eliminating noise, and mobile terminal |
Also Published As
Publication number | Publication date |
---|---|
KR100587260B1 (en) | 2006-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9805714B2 (en) | Directional keyword verification method applicable to electronic device and electronic device using the same | |
CN108305615B (en) | Object identification method and device, storage medium and terminal thereof | |
EP0077194B1 (en) | Speech recognition system | |
US5228087A (en) | Speech recognition apparatus and methods | |
US4811399A (en) | Apparatus and method for automatic speech recognition | |
US6411927B1 (en) | Robust preprocessing signal equalization system and method for normalizing to a target environment | |
US5025471A (en) | Method and apparatus for extracting information-bearing portions of a signal for recognizing varying instances of similar patterns | |
CN1689073A (en) | Controlling an apparatus based on speech | |
JPH11502953A (en) | Speech recognition method and device in harsh environment | |
JPH02238495A (en) | Time series signal recognizing device | |
CA2055749C (en) | Method and system for speech recognition without noise interference | |
CN116490920A (en) | Method for detecting an audio challenge, corresponding device, computer program product and computer readable carrier medium for a speech input processed by an automatic speech recognition system | |
EP1376537B1 (en) | Apparatus, method, and computer-readable recording medium for recognition of keywords from spontaneous speech | |
KR100587260B1 (en) | speech recognizing system of sound apparatus | |
GB2230370A (en) | Speech recognition | |
KR100737358B1 (en) | Method for verifying speech/non-speech and voice recognition apparatus using the same | |
JP2996019B2 (en) | Voice recognition device | |
KR100934651B1 (en) | Voice recognition device of automatic washing machine | |
US20080228477A1 (en) | Method and Device For Processing a Voice Signal For Robust Speech Recognition | |
KR20000056849A (en) | method for recognizing speech in sound apparatus | |
JPS6367197B2 (en) | ||
JP3114757B2 (en) | Voice recognition device | |
JPH04324499A (en) | Speech recognition device | |
JP2002041083A (en) | Remote control system, remote control method and memory medium | |
KR20040050765A (en) | method for recognizing speech in sound apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20090331 Year of fee payment: 4 |
|
LAPS | Lapse due to unpaid annual fee |