KR101427806B1 - Aircraft Voice Command Execution Method and Cockpit Voice Command Recognizer System therefor - Google Patents

Aircraft Voice Command Execution Method and Cockpit Voice Command Recognizer System therefor Download PDF

Info

Publication number
KR101427806B1
KR101427806B1 KR1020130004957A KR20130004957A KR101427806B1 KR 101427806 B1 KR101427806 B1 KR 101427806B1 KR 1020130004957 A KR1020130004957 A KR 1020130004957A KR 20130004957 A KR20130004957 A KR 20130004957A KR 101427806 B1 KR101427806 B1 KR 101427806B1
Authority
KR
South Korea
Prior art keywords
word
command
voice
recognition
fighter
Prior art date
Application number
KR1020130004957A
Other languages
Korean (ko)
Other versions
KR20140092645A (en
Inventor
김영일
김봉규
박귀홍
김성우
오영환
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020130004957A priority Critical patent/KR101427806B1/en
Publication of KR20140092645A publication Critical patent/KR20140092645A/en
Application granted granted Critical
Publication of KR101427806B1 publication Critical patent/KR101427806B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/09Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being zero crossing rates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Abstract

본 발명의 전투기 조종사 음성명령실행방법에서는 발화된 조종사의 음성명령어(전투기 명령어)가 단어단위별로 자동분할되어 단구간신호의 에너지 처리와 영 교차율(Zero Crossing Rate)처리로 묵음이 가려지고, MFCC(Mel-Frequency Cepstrum Coefficent)로부터 음성특성 파라미터(Parameter)가 결정됨으로써 각 단어별 인식 후보군이 설정되며, 설정된 단어별 인식 후보군이 구문트리(Verbal Tree)가 기반된 연결단어 정합기술로 연결단어 기반의 명령어로 이루어짐으로써 단어조합 수량을 크게 줄이고 명령어 인식률이 크게 높아지며, 특히 유사도 측정 횟수를 줄여줌으로써 단어 인식시간이 단축되는 특징을 갖는다.In the method of executing the voice command of the fighter pilot of the present invention, voice command (fighter command) of the uttered pilot is automatically segmented by word unit so that silence is obscured by the energy processing of the short-range signal and the zero crossing rate processing, The recognition candidate word set for each word is set by determining the voice characteristic parameter from the Mel-Frequency Cepstrum Coefficent. The recognition candidate word set is a connection word matching technique based on a verbal tree, The number of word combinations is greatly reduced and the recognition rate of commands is greatly increased. In particular, the word recognition time is shortened by reducing the number of similarity measurement times.

Description

전투기 조종사 음성명령실행방법 및 이의 음성명령어 인식 시스템{Aircraft Voice Command Execution Method and Cockpit Voice Command Recognizer System therefor}TECHNICAL FIELD [0001] The present invention relates to a method for executing a voice command of a fighter pilot,

본 발명은 전투기 조종사의 음성명령어 인식에 관한 것으로, 특히 일정한 규칙으로 여러 단어가 연결되어 구성된 조종사의 음성명령어(전투기 명령어)중 소수의 고립단어가 오인식되어도 음성명령어(전투기 명령어)의 규칙정보를 이용한 구문트리(Verbal Tree)로부터 오인식 단어 검증 및 수정이 진행됨으로써, 조종사의 음성명령(전투기 명령어)어 인식율 개선과 함께 인식시간도 단축된 전투기 조종사 음성명령실행방법 및 이의 음성명령어 인식 시스템에 관한 것이다.The present invention relates to recognition of a voice command of a fighter pilot, and more particularly, to a method and apparatus for recognizing voice commands of a fighter pilot by using a rule command of a voice command (fighter command) even when a small number of isolated words are misunderstood among a voice command word (fighter command word) The present invention relates to a method of executing a voice command of a fighter pilot and a voice command recognition system of a fighter pilot in which recognition time is shortened by improving voice recognition rate of a pilot voice command (fighter command) by performing verification and correction of a false word from a verbal tree.

일반적으로 전투기에 적용된 최신 전자기술은 전투기뿐 아니라 조종사의 전투 능력을 크게 향상시킬 수 있지만, 그에 비례하여 조종사는 고도의 조정 및 운영 스킬(Skill)에 대한 압박을 받을 수밖에 없다.In general, the latest electronic technology applied to fighters can significantly improve the combat capabilities of fighters as well as pilots, but proportional to this, pilots are forced to undergo a high degree of coordination and operational skill.

더구나, 조종사는 전투기 비행자세 제어나 무기 제어시 거치는 많은 메뉴로 인해 압박이 더욱 가중될 수밖에 없고, 이러한 조건에서도 조종사는 수많은 버튼 중 비행자세제어나 무기제어를 위해 원하는 버튼을 직접 눌러야함으로써 낮은 제어 효율성에 직면할 수밖에 없다.In addition, the pilot is forced to increase the pressure due to the many menus in the control of the fighter's flight attitude and weapon control. Under these conditions, the pilot must press the desired button directly for controlling the flight attitude or weapon control among numerous buttons, I have no choice but to face.

이러한 제어 효율성을 개선한 방식으로서 조종사가 음성을 이용해 명령을 수행하는 음성 인식 방식이 있으며, 이와 같은 음성 인식 방식에서는 전투기 음성명령 인식 시스템이 이용된다.As a method of improving the control efficiency, there is a voice recognition method in which a pilot performs a command using voice. In such a voice recognition method, a fighter voice command recognition system is used.

일례로, 전투기 음성명령 인식 시스템은 조종사가 발화한 단어들로 구성된 명령어를 인식할 수 있는 연결단어 인식기와, 조종사가 조종석의 특정버튼을 누르는 동안 조종사가 단어들로 구성된 명령어(전투기 명령어)를 발화함으로써 명령어(전투기 명령어)의 시작과 끝을 구분하고, 명령어(전투기 명령어)의 발화종료 시에 조종사의 버튼 조작을 해제하는 인터페이스를 포함한다.For example, a fighter voice command recognition system may include a link word recognizer that can recognize a command composed of words uttered by the pilot, and a pilot that utteres a command (fighter command) composed of words while the pilot presses a certain button on the cockpit To distinguish the start and end of the command (fighter command) and to release the button operation of the pilot at the end of the command (fighter command).

통상, 상기와 같은 전투기 음성명령 인식 시스템에서는 조종사 음성으로 입력된 음성명령어(전투기 명령어)에 대해 각 단어의 시작과 끝을 찾아서 단어단위로 자동분할하고, 각 단어에 대해서 고립단어 인식이 수행됨으로써 조종사의 음성명령이 인식될 수 있다.Generally, in the above-described fighter voice command recognition system, the start and end of each word are automatically searched for a voice command (fighter command word) input by a pilot voice, and the isolated word recognition is performed for each word, The voice command of the voice command can be recognized.

그러므로, 전투기 음성명령 인식 시스템이 적용될 경우 많은 버튼들을 조작해야 하는 전투기 조종사가 갖는 불편 해소와 함께 제어 효율성도 크게 개선될 수 있다. Therefore, when a fighter voice command recognition system is applied, control efficiency can be greatly improved along with the inconvenience of a fighter pilot who has to operate many buttons.

국내특허공개10-2002-0060975(2002년07월19일)Korean Patent Publication No. 10-2002-0060975 (July 19, 2002)

상기 특허문헌은 복수의 특정 음성이나 또는 템플릿 음성의 인에이블링 부분을 포착하고, 인에이블링 부분을 분석함으로써 포착된 음성의 특성들이 규정되는 데이터 프로파일을 생성하는 음성인식 방법에 관한 기술의 예를 나타낸다.The patent document describes an example of a technique relating to a speech recognition method for capturing an enabling part of a plurality of specific speech or template speech and generating a data profile in which the characteristics of the acquired speech are analyzed by analyzing the enabling part .

하지만, 전투기의 음성명령 인식에서는 다른 분야의 음성인식대비 빠른 응답특성이 충족될 수 있어야 한다. 그러므로, 네트워크 연결형 서버기반 음성인식 방식인 스마트폰 기반 기술과 같이 온라인 사용 기반 기술인 상기 특허문헌과 같은 방식에서는 조종사가 발화한 음성명령어(전투기 명령어)가 즉시 비행제어나 무기제어로 구현될 수 있어야 하는 빠른 응답특성이 충족되기엔 한계를 가질 수밖에 없다.However, the voice command recognition of a fighter should be able to satisfy the fast response characteristic of speech recognition in other fields. Therefore, in the same manner as in the patent document, which is an on-line use-based technology such as a smartphone-based technology that is a network-connected server-based speech recognition method, a voice command (fighter command) uttered by a pilot must be instantaneously implemented by flight control or weapon control There is a limit to the ability to satisfy the fast response characteristic.

특히, 전투기의 음성명령 인식에서는 다른 분야의 음성인식대비 높은 인식률이 충족됨이 중요할 수밖에 없다.Especially, it is important for the recognition of speech command of a fighter aircraft to satisfy a high recognition rate compared with speech recognition in other fields.

이는, 비록 전투기 음성명령어의 고립단어 인식율이 90%이상이더라도 여러 단어가 연결되어 구성된 전투기 명령어 단어중 한 단어라도 잘못 인식되면, 잘못 인식된 한 단어로 인해 명령어 인식율이 현저히 낮아짐으로써 전투기 명령어 전체가 오인식될 수밖에 없다.This is because, even if one of the words of the fighter command word composed of plural words is mistakenly recognized even if the word recognition rate of the fighter voice command is 90% or more, the recognition rate of the command is remarkably lowered due to the one word which is recognized erroneously, I can not help it.

그러므로, 전투기의 음성명령 인식에서는 여러 단어가 연결되어 구성된 전투기 명령어 단어들 모두에 대한 정확하면서도 높은 인식율이 반드시 충족됨이 중요할 수밖에 없다.Therefore, it is important that the accurate and high recognition rate of all the words of the fighter command word composed of several words are fulfilled in the voice command recognition of the fighter.

이에 상기와 같은 점을 감안하여 발명된 본 발명은 조종사의 음성명령어(전투기 명령어)가 구문트리(Verbal Tree)를 이용한 연결단어 정합과정으로 조합 가능한 고립단어들이 찾아지고, 여러 단어가 연결되어 구성된 음성명령어(전투기 명령어)의 일정한 규칙정보로부터 고립단어의 오인식 단어 검증 및 수정이 진행된 후, 명령어 인식 종료와 함께 음성명령어(전투기 명령어)들의 유사도 값이 가장 큰 조합이 최종 인식결과로 선정됨으로써 조종사의 음성명령어 인식율이 크게 향상된 전투기 조종사 음성명령실행방법 및 이의 음성명령어 인식 시스템을 제공하는데 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to provide a speech recognition apparatus and method, After a mistaken word of the isolated word is verified and corrected from a certain rule information of the command (fighter command), a combination having the greatest similarity value of the voice command (fighter command) with the end of command recognition is selected as the final recognition result, There is provided a method of executing a voice command of a fighter pilot and a voice command recognition system thereof.

상기와 같은 목적을 달성하기 위한 본 발명의 전투기 조종사 음성명령실행방법은 전투기 조종석에서 조종사가 발화한 전투기 명령어가 음성인식기로 입력되어 버퍼(Buffer)에 임시 저장되고, 상기 전투기 명령어의 단어별 제1, ,,,.제n프레임단위로 자동 분할되는 음성자동분할단계;According to another aspect of the present invention, there is provided a method of executing a voice command for a fighter pilot, the method comprising: receiving a fighter command word uttered by a pilot in a cockpit cockpit, An automatic speech segmentation step of automatically dividing the speech signal into n-th frame units;

상기 제1, ,,,.제n프레임단위중 단구간 신호를 이루는 1개의 프레임단위가 선택되고, 선택된 프레임단위의 묵음판단을 거친 음성에 대한 음성특성 파라미터(Parameter)가 추출되며, 상기 음성특성 파라미터(Parameter)로 구성된 제1,...,제k 유사단어 인식후보군으로 각각 선정되는 음성단어인식단계;One frame unit constituting the short interval signal among the first, n, and n-th frame units is selected and a voice characteristic parameter for voice subjected to the silence judgment of the selected frame unit is extracted, A k-th similar word recognition candidate group consisting of parameters;

상기 제1,...,제k 유사단어 인식후보군중 1개의 유사단어 인식후보군이 선택되고, 선택된 유사단어 인식후보군이 상기 전투기 명령어로 구축된 구문트리(Verbal Tree)를 통과한 다음 적합명령어 후보군으로 선정되고, 상기 적합명령어 후보군이 상기 제1,...,제k 유사단어 인식후보군의 각각으로부터 모든 적합명령어 후보군으로 각각 선택되며, 상기 모든 적합명령어 후보군의 단어 정합 후 적합명령어들로 각각 선정되는 연결단어정합단계;A similar word recognition candidate group out of the first, ..., k-th similar word recognition candidate groups is selected, the selected similar word recognition candidate group passes through a syntax tree (Verbal Tree) constructed by the fighter command word, ..., K-like word recognition candidates from the first, ..., k-th similar word recognition candidates, and the matching instruction word candidates are respectively selected as the matching commands after the word matching of all the matching instruction word candidates A connection word matching step;

상기 적합명령어들에서 유사도 값이 판단되고, 유사도 값이 최대인 적합명령어가 최종명령어로 인식되고, 상기 최종명령어가 상기 조종사의 발화된 상기 전투기 명령어로 실행되는 음성명령실행단계; 가 포함되어 수행되는 것을 특징으로 한다.A voice command execution step in which the similarity value is determined in the adaptation commands, the adaptation command having the maximum similarity value is recognized as a final command, and the final command is executed by the fighter command word uttered by the pilot; Is performed.

상기 음성자동분할단계에서, 상기 전투기 명령어는 일련의 단어 및 숫자가 포함된다.In the automatic voice segmentation step, the fighter command includes a series of words and numbers.

상기 음성단어인식단계는 상기 제1, ,,,.제n프레임단위중 단구간 신호를 이루는 프레임단위가 묵음이 아닌 음성으로 판단된 후, 음성 신호특징을 추출하여 음성특성 파라미터(Parameter)가 추출되며, 상기 음성특성 파라미터(Parameter)로 구성된 발화단어에 대해 상기 제1,...,제k 유사단어 인식후보군으로 추출되는 음성단어인식모드; 로 수행되는 것을 특징으로 한다.Wherein the speech word recognizing step comprises the steps of: extracting a speech signal characteristic and extracting a speech characteristic parameter after the frame unit of the first, n, A speech word recognition mode in which the first, ..., k-th similar word recognition candidates are extracted for speech words composed of the speech characteristic parameters; As shown in FIG.

상기 음성단어인식모드에서, 상기 음성특성 파라미터(Parameter)는 상기 선택된 프레임단위에 MFC(Mel-Frequency Cepstrum)를 적용해 처리하고, 상기 MFC(Mel-Frequency Cepstrum)의 처리 결과인 계수(Coefficent)들을 모아준 MFCC(Mel-Frequency Cepstrum Coefficent)에 의해 결정된다.In the voice word recognition mode, the voice characteristic parameter applies an MFC (Mel-Frequency Cepstrum) to the selected frame unit, processes coefficients of the MFC (Mel-Frequency Cepstrum) It is determined by the gathered MFCC (Mel-Frequency Cepstrum Coefficent).

상기 연결단어정합단계에서, 상기 선택된 유사단어 인식후보군에는 발화길이와 유사도 순위가 고려되고, 적합하지 않은 발화길이와 유사도 순위를 갖는 부적절모델이 제외된다.In the linked word matching step, the selected similar word recognition candidates are classified into ignition lengths and similarity rankings, and inadequate models having an inappropriate search length and similarity rank are excluded.

상기 연결단어정합단계에서, 상기 구문트리(Verbal Tree)는 상기 전투기 명령어가 구문일 때 시작노드를 시작점으로 해서 종말노드를 끝점으로 하고, 상기 시작노드와 상기 종말노드사이에서 명령어 규칙에 따라 앞에 나오는 단어가 부모노드가 되고 뒤에 나오는 단어가 자식노드로 도착 경로를 형성하며; 상기 전투기 명령어가 숫자일 때, 숫자를 대표하는 노드가 셀프 루프(Self Loop)로 구성되어져 여러 자리의 숫자가 포함된 구문으로 구축되고; 상기 적합명령어 후보군은 상기 구문트리(Verbal Tree)가 형성하는 상기 경로를 통과할 때 선정되는 것을 특징으로 한다.In the connection word matching step, the verbal tree has an end node as an end point, with the start node as a start point when the fighter command is a phrase, and the end node as an end point between the start node and the end node, The word becomes the parent node and the following word forms the arrival path to the child node; When the fighter command is a numeral, a node representing a number is constructed as a self loop including a plurality of digits; And the adaptation command candidate group is selected when passing through the path formed by the syntax tree (Verbal Tree).

상기 경로가 통과되면, 상기 경로의 상기 부모노드를 통과한 제1 인식결과후보군과 상기 자식노드를 통과한 제2 인식결과후보군이 선정되고, 상기 제1 인식결과후보군과 상기 제2 인식결과후보군이 서로 조합되며, 상기 조합결과로 상기 적합명령어 후보군이 선정된다.A first recognition result candidate group that has passed through the parent node of the path and a second recognition result candidate group that has passed through the child node are selected, and the first recognition result candidate group and the second recognition result candidate group And the fit instruction word candidate group is selected as a result of the combination.

상기 음성명령실행단계에서, 상기 유사도 판단은 HMM(Hidden Markov Model)중 로그(Log)함수와 지수(Exponential)함수를 사용하는 VD알고리즘(Viterbi Decoding Algorism)이 적용되어, 상기 유사도 판단이 수행되고, 상기 유사도 판단 후 2개 이상의 인식결과로 적합명령어가 선정되면, 상기 유사도 값이 비교된 후 상대적으로 유사도 값이 큰 적합명령어가 최종 인식 결과로 선택된다.In the voice command execution step, the degree of similarity determination is performed by applying a VD algorithm (Viterbi Decoding Algorithm) using a log function and an exponential function in a HMM (Hidden Markov Model) After the determination of the degree of similarity, when the good command is selected from two or more recognition results, the good command having a relatively high similarity value is selected as the final recognition result after the similarity values are compared.

또한, 상기와 같은 목적을 달성하기 위한 본 발명의 전투기 조종사 음성명령어 인식 시스템은 전투기 조종석(Cockpit)에서 조종사의 발화된 음성명령어가 수신되는 수신모듈과, 상기 수신모듈의 음성신호에서 상기 음성명령어의 명령어 후보를 선택한 후 읽어 들인 조종사 음성데이터 모델과 유사도를 비교한 다음 최종 명령어로 확정하는 프로세싱모듈과, 상기 최종 명령어가 상기 전투기에서 실행되도록 상기 최종 명령어를 출력하는 송신모듈과, 상기 프로세싱모듈이 읽어 들이는 상기 조종사 음성데이터 모델을 내장한 음성저장모듈로 구성된 탑재형 음성인식기; 가 포함된 것을 특징으로 한다.According to another aspect of the present invention, there is provided a system for recognizing a voice command for a fighter pilot, the system comprising: a receiving module for receiving a voice command voice of a pilot in a cockpit cockpit; A processing module for comparing the similarity of the pilot voice data model read after selecting the command candidate with the read similarity of the pilot voice data model and then determining the final command as a final command; a transmission module for outputting the final command so that the final command is executed in the fighter; A built-in speech recognizer composed of a voice storage module in which the pilot voice data model is embedded; Is included.

상기 프로세싱모듈에는 상기 음성명령어를 단어단위로 자동분할하고, 분할된 단어단위에 대한 단구간신호의 에너지 처리와 함께 단구간신호의 영 교차율(Zero Crossing Rate) 처리가 수행되어 묵음을 제외한 음성을 분류하는 음성단어처리부와;The processing module automatically divides the speech command word by word, performs energy processing of the short-term signal on the word unit basis, and performs zero crossing rate processing on the short-term signal to classify the voice except the silence A speech word processing unit;

상기 음성에 MFC(Mel-Frequency Cepstrum)처리를 적용하고, MFC(Mel-Frequency Cepstrum)처리에 의한 계수(Coefficent)를 모은 MFCC(Mel-Frequency Cepstrum Coefficent)로 음성특성 파라미터가 선정되며, 상기 음성특성 파라미터로부터 상기 명령어 후보가 선택되는 음성특징추출부와;A voice characteristic parameter is selected as an MFCC (Mel-Frequency Cepstrum Coefficient) for applying a MFC (Mel-Frequency Cepstrum) process to the voice and collecting a coefficient by a MFC (Mel-Frequency Cepstrum) A speech feature extraction unit for selecting the instruction word from the parameter;

상기 선택된 명령어 후보와 상기 조종사 음성데이터 모델의 유사도가 판단되도록 상기 HMM(Hidden Markov Model)의 VD알고리즘(Viterbi Decoding Algorism)을 적용하고, 상기 조종사 음성데이터 모델과 유사도를 판단하고, 구문트리(Verbal Tree)기반의 정합과정을 통해 상기 선택된 명령어 후보를 최종 명령어로 확정하는 유사도측정부; 로 구성된다.A Viterbi Decoding Algorithm of the HMM (Hidden Markov Model) is applied to determine the similarity between the selected command word candidate and the pilot voice data model, a similarity to the pilot voice data model is determined, and a Verbal Tree A similarity measuring unit for determining the selected instruction word candidate as a final instruction word through a matching process based on the comparison result; .

이러한 본 발명은 구문트리(Verbal Tree)를 이용한 연결단어 정합과정이 적용됨으로써 일정한 규칙으로 여러 단어가 연결되어 구성된 조종사의 음성명령어(전투기 명령어)로부터 고립단어의 인식이 신속하게 이루어지는 효과가 있다.The present invention has the effect of quickly recognizing an isolated word from a voice command word of a pilot (a fighter command word) composed of a plurality of words connected by a certain rule by applying a connection word matching process using a verbal tree.

또한, 본 발명은 구문트리(Verbal Tree)를 이용한 연결단어 정합과정에서 음성명령어(전투기 명령어)의 각 단어들의 적합한 조합만을 고려함으로써 음성명령어(전투기 명령어)의 각 단어들이 정합될수록 가능한 단어조합들이 줄어들고, 이로부터 음성명령어(전투기 명령어)의 유사도 측정 시간 소요도 크게 개선되는 효과가 있다.In addition, the present invention considers only a suitable combination of the words of a voice command (fighter command word) in a connection word matching process using a verbal tree, thereby reducing possible word combinations as the words of a voice command (fighter command word) are matched , And the time required to measure the similarity of the voice command (fighter command) is greatly improved.

또한, 본 발명은 구문트리(Verbal Tree)를 이용한 연결단어 정합과정에서 음성명령어(전투기 명령어)의 각 단어별 인식 후보군을 두고, 이를 오인식 단어 검증 및 수정에 적용함으로써 명령어 인식율이 더욱 개선되는 효과가 있다.In addition, the present invention applies a recognition candidate for each word of a voice command (fighter command word) in a connection word matching process using a verbal tree, and applies it to a mistaken word verification and correction, thereby improving the recognition rate of the command have.

또한, 본 발명은 구문트리(Verbal Tree)를 이용한 연결단어 정합과정으로 조종사의 음성명령어(전투기 명령어)로부터 찾아진 조합 가능한 고립단어들이 오인식 단어 검증 및 수정이 진행됨으로써 음성명령어(전투기 명령어)에 대한 전체적인 인식율이 크게 높아지고, 특히 전체 단어중 소수 고립단어의 오인식으로 음성명령어(전투기 명령어)가 전체적으로 오인식되는 인식결과가 초래되지 않는 효과가 있다.In addition, the present invention relates to a connection word matching process using a verbal tree, wherein a combination of isolated words found from a pilot voice command word (fighter command word) is subjected to misrecognized word verification and correction, The overall recognition rate is greatly increased, and in particular, there is an effect that the recognition result that the voice command (fighter command) is erroneously recognized as a whole is mistaken for the small number of isolated words among the whole words.

도 1은 본 발명에 따른 조종사 음성명령어(전투기 명령어)의 음성명령 수행 절차이고, 도 2는 본 발명에 따른 전투기에서 음성 인식기 시스템의 동작흐름도이며, 도 3과 도 4는 본 발명에 따른 조종사 음성명령어(전투기 명령어)의 음성명령 수행알고리즘이고, 도 5내지 도 9은 본 발명에 따른 전투기 음성명령 인식기의 음성명령인식 알고리즘의 세부 단계 블록구성이다.FIG. 1 is a flow chart illustrating a voice command execution procedure of a pilot voice command (fighter command word) according to the present invention, FIG. 2 is a flowchart illustrating an operation of a voice recognition system in a fighter aircraft according to the present invention, FIG. 5 is a detailed block diagram of a voice command recognition algorithm of a fighter voice command recognizer according to the present invention. FIG.

이하 본 발명의 실시예를 첨부된 예시도면을 참조로 상세히 설명하며, 이러한 실시예는 일례로서 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 여러 가지 상이한 형태로 구현될 수 있으므로, 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, which illustrate exemplary embodiments of the present invention. The present invention is not limited to these embodiments.

도 1은 본 발명에 따른 조종사 음성명령어(전투기 명령어)의 음성명령 수행 절차를 나타낸다.1 shows a voice command execution procedure of a pilot voice command (fighter command) according to the present invention.

S1과 같이 전투기 조종사가 발화한 음성명령어(전투기 명령어)를 수신하면, S2에서는 수신된 음성명령어(전투기 명령어)를 개별단어로 인식한 다음 구문트리(Verbal Tree)의 적용을 통해 적합한 명령어 후보군을 구성하고, S3에서는 각 단어별 유사도 값을 종합(Sum)함으로써 최종 명령어 1개가 선택되며, S4에서는 선택된 최종 명령어가 실행됨으로써 전투기가 조종사의 음성명령으로 제어될 수 있다.In S1, when a voice command (fighter command) uttered by a fighter pilot is received as in S1, S2 recognizes the received voice command (fighter command) as an individual word and then constructs a suitable command word group through application of a verbal tree In S3, one final command is selected by summing up the similarity values for each word. In S4, the selected final command is executed so that the fighter can be controlled by the voice command of the pilot.

특히, S 2에서는 묵음구간 추출을 통해서 단어들을 구분 및 인식하도록 VD알고리즘(Viterbi Decoding Algorism)을 이용함으로써 각 단어들의 유사도 값이 측정될 수 있고, 유사도 값 측정 후 첫 단어 인식 후(후보군 선정 후)에 구문트리(Verbal Tree)를 적용함으로써 첫번째에 올 수 있는 단어인지 필터링하고, 이어 두번째 단어도 동일한 방식을 적용해 인식하는 절차가 수행된다.In particular, in S 2, the similarity value of each word can be measured by using VD algorithm (Viterbi Decoding Algorithm) to distinguish and recognize words through silent section extraction. After recognizing the first word after measuring the similarity value, A verbal tree is applied to the first word, and a process of recognizing the second word using the same method is performed.

한편, 도 2는 전투기(100)의 조종석(Cockpit)에 탑재형 음성인식기(10)를 포함한 음성 인식기 시스템이 설치되고, 도 1의 음성명령 수행 절차가 탑재형 음성인식기(10)를 통해 이루어지는 동작흐름을 나타낸다.FIG. 2 is a block diagram illustrating a configuration of a voice recognizer system including a built-in voice recognizer 10 installed in a cockpit of a fighter aircraft 100, Flow.

도시된 바와 같이, 탑재형 음성인식기(10)에는 전투기 조종사가 발화한 음성명령어(전투기 명령어)를 수신하는 수신모듈(20)과, 수신모듈(20)로 들어온 음성신호로부터 명령어 후보를 선택하는 프로세싱모듈(30)과, 명령어 후보가 최종 명령어로 선택되기 위한 조종사 음성이 제공되는 음성저장모듈(40)과, 최종 명령어가 출력되는 송신모듈(50)이 포함된다.As shown, the onboard speech recognizer 10 includes a receiving module 20 for receiving voice commands (fighter command words) uttered by a fighter pilot, processing for selecting a command word from the voice signal input to the receiving module 20, A voice storage module 40 provided with a pilot voice for selecting an instruction word as a final instruction word, and a transmission module 50 for outputting a final instruction word.

본 실시예에서 상기 프로세싱모듈(30)에는 음성단어처리부(31)와 음성특징추출부(32) 및 유사도측정부(33)가 포함된다.In the present embodiment, the processing module 30 includes a speech word processing unit 31, a speech feature extraction unit 32, and a similarity measure unit 33.

상기 음성단어처리부(31)에서는 단구간신호의 에너지 처리와 함께 단구간신호의 영 교차율(Zero Crossing Rate) 처리가 수행되며, 상기 음성특징추출부(32)에서는 MFC(Mel-Frequency Cepstrum)처리를 통해 MFCC(Mel-Frequency Cepstrum Coefficent)가 추출됨으로써 음성특성 파라미터가 선정되고, 상기 유사도측정부(33)에서는 VD알고리즘(Viterbi Decoding Algorism)이 적용되며, 상기 음성저장모듈(40)에는 HMM(Hidden Markov Model)이 적용되어 조종사의 음향 훈련이 수행된다. 이는 이후 상세히 기술된다.In the speech word processing unit 31, zero crossing rate processing of the short-range signal is performed together with energy processing of the short-range signal, and the voice feature extraction unit 32 performs MFC (Mel-Frequency Cepstrum) A VD algorithm (Viterbi Decoding Algorithm) is applied to the similarity measuring unit 33 and the voice storage module 40 is provided with a HMM (Hidden Markov) Model) is applied to perform the sound training of the pilot. This will be described in detail later.

그러므로, 상기 수신모듈(20)에서는 전술한 S1의 절차가 수행되고, 상기 프로세싱모듈(30)에서는 전술한 S2의 절차가 수행되며, 상기 프로세싱모듈(30)과 함께 상기 음성저장모듈(40)에서는 전술한 S3의 절차가 수행되고, 상기 송신모듈(50)에서는 전술한 S4의 절차가 수행된다.Therefore, the above-described procedure of S1 is performed in the receiving module 20, the above-described S2 process is performed in the processing module 30, and the voice storage module 40 together with the processing module 30 The above-described procedure of S3 is performed, and in the transmitting module 50, the above-described procedure of S4 is performed.

이러한 결과로서, 전투기가 조종사는 음성명령(전투기 명령어)으로 공대공미사일(200)을 발사하거나 또는 전투기(100)의 비행자세를 제어할 수 있고, 이로부터 전투기 조종사 많은 버튼들을 조작하는 불편에서 벗어날 수 있게 된다. As a result, the fighter may be able to fire the air-to-air missile 200 with a voice command (fighter command) or control the flight position of the fighter 100, thereby avoiding the inconvenience of manipulating many buttons of the fighter pilot .

한편, 도 3 및 도 4는 본 실시예에 따른 조종사 음성명령어(전투기 명령어)의 음성명령 수행알고리즘의 세부 절차를 나타낸다.3 and 4 show detailed procedures of a voice command execution algorithm of the pilot voice command (fighter command word) according to the present embodiment.

도 3을 참조하면, S10과 같이 음성인식기가 온(On)된 상태가 되면, S20과 같이 조종사가 발화한 전투기 명령어는 음성인식기로 입력된다.Referring to FIG. 3, when the voice recognizer is turned on as in S10, the fighter command word uttered by the pilot is input to the voice recognizer as in S20.

이때, 조종사가 발화한 전투기 명령어는 S21의 입력단어일 수 있으며, 상기 입력단어는 일례로 S21-1과 같이 JETTISON이나 AIR TO AIR나 STATION 2일 수 있다.In this case, the fighter command uttered by the pilot may be an input word of S21, and the input word may be JETTISON, AIR TO AIR, or STATION 2, for example, S21-1.

또한, 입력단어는 S22와 같이 숫자(NUMBER)일 수 있다.In addition, the input word may be a number (NUMBER) as in S22.

이러한 전투기 명령어는 일정한 규칙으로 여러 단어가 연결되어 구성되는 특징을 갖는다.These fighter commands have the characteristic that several words are connected by a certain rule.

S30은 음성인식기로 입력된 전투기 명령어가 버퍼(Buffer)에 임시로 저장된 후 이로부터 데이터추출이 이루어지는 과정으로서, 이 과정에서 조종사의 전투기 명령어는 제1, ,,,.제n프레임단위로 쪼개진다. 이때, 상기 프레임단위는 다수로 모여 한 개의 고립단어를 이룬다.S30 is a process in which a fighter command input to the speech recognizer is temporarily stored in a buffer and data is extracted therefrom. In this process, the fighter command of the pilot is split into first, . At this time, the frame units are grouped into a plurality of isolated words.

S31은 제1, ,,,.제n프레임단위에 대한 묵음이 판단되는 과정으로서, 이를 위해 제1 프레임단위부터 제n프레임단위까지 순차적인 인식과정이 진행된다.S31 is a process of determining silence for the first, nth, and nth frame units, and the recognition process sequentially proceeds from the first frame unit to the nth frame unit.

이러한 인식에는 S31-1의 단구간신호의 에너지 처리와 S31-2의 단구간신호의 영 교차율(Zero Crossing Rate)처리가 적용된다.For this recognition, the energy treatment of the short-term signal of S31-1 and the zero crossing rate treatment of the short-term signal of S31-2 are applied.

상기 단구간신호의 에너지 처리는 음성의 경우 에너지가 큰 반면 잡음과 묵음의 경우 에너지가 작은 특징을 이용하는 방식이며, 상기 단구간신호의 영 교차율(Zero Crossing Rate)처리는 정해진 구간 안에 신호가 0점을 통과하는 횟수를 이용하는 방식이다.The energy processing of the short-term signal is a method using energy having a large energy in the case of speech while having a small energy in the case of noise and silence, and the zero crossing rate processing of the short- Is used.

S32에서는 제1 프레임단위의 묵음 여부가 판단된다.In step S32, it is determined whether or not the first frame is muted.

통상, 잡음과 묵음은 영교차율이 크고 에너지가 작지만 음성은 상대적으로 에너지가 크다. 반면 무성음은 에너지가 작지만 잡음과는 달리 영교차율이 작다. 그러므로, 단 구간 에너지가 크거나 또는 단 구간 에너지가 작지만 영교차율이 작을 경우 해당 단 구간 신호는 음성으로 분류될 수 있고, 반면 단 구간 에너지가 작고 영교차율이 클 경우 해당 단 구간 신호는 묵음으로 분류될 수 있다.Normally, noise and silence have a large zero crossing ratio and a low energy, but a voice has a relatively large energy. On the other hand, the unvoiced sound has a small energy but the zero crossing rate is small, unlike the noise. Therefore, if the short-term energy is large or the short-term energy is small, but the zero crossing rate is small, the short-term signal can be classified as speech, whereas if the short-term energy is small and zero crossing rate is large, .

S32의 판단결과 제1 프레임단위 = 묵음일 경우, S33과 같이 바로 이전 프레임이 묵음일 때는 S34의 프레임단위 재 선택으로 전환됨으로써 S31로 복귀된다.If it is determined in step S32 that the first frame unit is mute, if the immediately preceding frame is silent as in step S33, the process returns to step S31 by switching to frame unit reselection in step S34.

반면, S32의 판단결과 제1 프레임단위 = 묵음이 아닐 경우, S40과 같이 제1 프레임단위의 음성 신호(숫자)특징을 추출하여준다. 이는 S33의 판단결과 바로 이전 프레임단위 = 묵음이 아닐 경우도 동일하게 적용된다.On the other hand, if it is determined in step S32 that the first frame unit is not mute, the speech signal (number) characteristic of the first frame unit is extracted as in step S40. The same applies to the case where the previous frame unit = not mute as a result of the judgment of S33.

특히, 프레임단위에 대한 특징 벡터(Vector)가 추출됨으로써 비교적 적은 수의 파라미터(Parameter)로 음성신호가 표현될 수 있고, 특히 특징 추출 뒤에 진행되는 음성인식등과 같은 후속과정의 계산량이 효과적으로 줄어드는 특징을 갖는다.In particular, by extracting a feature vector for each frame unit, a voice signal can be expressed with a relatively small number of parameters, and in particular, a feature that a calculation amount of a subsequent process such as voice recognition, Respectively.

S41은 음성 신호(숫자)특징 추출에 MFC(Mel-Frequency Cepstrum)가 적용되는 과정으로서, 상기 MFC는 단 구간 신호의 파워 스펙트럼(Power Spectrum)을 표현하는 한 방법이며, 특히 비선형적인 멜-스케일(Mel-Scale)의 주파수 도메인에서의 로그 파워스펙트럼(Log Power Spectrum)에 코사인 변환(Cosine Transform)을 취함으로써 얻는 방식이다.S41 is a process in which an MFC (Mel-Frequency Cepstrum) is applied to a voice signal (number) feature extraction. The MFC is a method of expressing a power spectrum of a short-term signal. In particular, a nonlinear mel- Mel-Scale) by taking a cosine transform in the log power spectrum in the frequency domain.

S42는 MFC 처리 후 그 계수(Coefficent)들이 MFCC(Mel-Frequency Cepstrum Coefficent)로 모아짐으로써 음성특성 파라미터가 결정되는 상태이며, 이로부터 프레임단위가 갖는 음성신호(숫자)의 특징이 취해진다.S42 is a state in which the voice characteristic parameters are determined by collecting the coef- ficients after the MFC processing into the MFCC (Mel-Frequency Cepstrum Coeffi- nent), from which the characteristic of the voice signal (number) possessed by the frame unit is taken.

이때, MFCC의 주파수 밴드는 균일하게 나눠진 주파수 밴드를 갖는 일반적인 스펙트럼과 달리 멜-스케일(Mel-Scale)에서 균등하게 나눠짐으로써 특히 사람의 청각에 민감한 주파수 대역의 에너지가 더욱 잘 표현될 수 있는 장점을 가질 수 있다.In this case, the frequency band of the MFCC is divided evenly in the Mel-Scale, unlike the general spectrum having the frequency bands uniformly divided, so that the energy of the frequency band that is particularly sensitive to the human auditory sense can be expressed more Lt; / RTI >

S50은 음성신호(숫자)의 특징이 취해진 제1내지 제n 프레임단위 및 유사단어와 이의 유사도를 판단하는 과정이고, 이 과정을 거침으로써 제1내지 제n 프레임단위로 이루어진 음성신호가 유사 단어 인식 후보군으로 추출된다. 이는 제1 유사 단어 인식 후보군으로 정의된다.S50 is a process of determining the similarity between the first to n-th frame units and the similar word and the similarity degree of the speech signal (number) taken in the first to the n-th frame units, And extracted as a candidate group. This is defined as the first similar word recognition candidate group.

S51은 전술한 제1내지 제n 프레임단위로 이루어진 음성신호의 유사 단어 인식 후보군 추출 과정이 발화된 음성신호에 모두 적용되고, 그 결과로 발화된 음성신호에 대해 각각 유사 단어 인식 후보군이 추출된 다음, 이를 제1내지 제k 유사 단어 인식 후보군으로 정의하는 과정이다.S51 is applied to all of the speech signals in which the similar word recognition candidate group extraction process of the speech signal composed of the first to the n-th frame units described above is performed, and then the similar word recognition candidate groups are extracted for the speech signal, , And defines it as a first to k-th similar word recognition candidate group.

이로부터 알 수 있는 바와 같이, 발화된 조종사 전투기 명령어는 고립단어내 프레임단위로 자동 분할된 후, 프레임단위별로 단구간신호의 에너지와 단구간신호의 영 교차율(Zero Crossing Rate)처리로 묵음이 판단된 다음, 묵음이 아닌 프레임단위가 MFC(Mel-Frequency Cepstrum)를 거쳐 MFCC(Mel-Frequency Cepstrum Coefficent)로 모아짐으로써 음성특성 파라미터가 결정되고, 이로부터 발화된 조종사 전투기 명령어는 그 고립단어 수에 따라 제1,…,제k 유사 단어 인식 후보군이 각각 매치(Match)됨을 알 수 있다.As can be seen from this, the ignited pilot fighter command is automatically segmented into frames in isolated words, and the energy of the short-term signal per frame unit and the zero crossing rate of the short- , Then the non-silent frame unit is collected into the Mel-Frequency Cepstration (MFCC) via the MFC (Mel-Frequency Cepstrum), and the voice characteristic parameters are determined, According to the first, ... , And k-like word recognition candidates are matched, respectively.

한편, S60은 제1,…,제k 유사 단어 인식 후보군이 구문트리(Verbal Tree)를 이용해 연결단어정합이 실행되는 과정으로서, 조종사가 발화한 전투기 명령어 내 단어들에 대해 일정한 체계를 갖는 구문트리(Verbal Tree)와 비교함으로써 구문정보가 사용된다.On the other hand, in S60, , The k-th similar word recognition candidate group is a process of executing the connection word matching using the verbal tree, and comparing the words in the fighter command uttered by the pilot with the verbal tree having a certain scheme, Information is used.

통상, 상기 구문트리(Verbal Tree)는 사전에 선정된 조종사가 발화할 수 있는 전투기 명령어들이 조합된 리스트로서, 이를 이용해 명령 수행중인 조종사가 발화한 전투기 명령어들이 비교될 수 있는 기준이 되고, 그 결과로서 음성명령 인식기에서는 조종사가 현재 발화한 음성데이터를 인식과 함께 최종 명령어가 결정될 수 있다.Generally, the verbal tree is a list of combat command words that can be uttered by a pilot selected in advance, and is used as a criterion by which a command word of a fighter commanded by a pilot in command can be compared, The voice command recognizer recognizes the voice data currently uttered by the pilot and the final command word can be determined.

이러한 구문트리(Verbal Tree)는 단어일 경우와 숫자일 경우로 구별되어 구축될 수 있다.Such a verbal tree can be constructed by distinguishing between words and numbers.

도 5는 단어 구문트리(Verbal Tree)의 일례로서, 이는 시작노드(루트노드)를 시작점으로 해서 종말노드(단말노드)를 끝점으로 하고, 시작노드(루트노드)와 종말노드(단말노드)사이에는 명령어 규칙에 따라 앞에 나오는 단어가 부모노드가 되고 뒤에 나오는 단어가 자식노드가 됨으로써 구문트리가 구축될 수 있다.FIG. 5 shows an example of a word syntax tree (Verbal Tree), which has a start node (root node) as an end point, an end node (terminal node) as an end point, and a start node (root node) The syntax tree can be constructed by setting the preceding word to be the parent node and the subsequent word to be the child node according to the command rule.

이로부터, 음성명령어의 각 단어들은 자신의 바로 앞에 나오는 단어의 자식노드가 되어 트리를 형성하고, 명령어의 가장 앞에 있는 단어는 시작노드(루트노드)의 자식노드가 되어 명령어의 가장 뒤에 있는 단어는 명령어의 끝을 대표하는 종말노드(단말노드)의 부모노드가 됨을 알 수 있다.From this, each word of a voice command forms a tree as a child node of the word immediately preceding it, and the word at the head of the command becomes a child node of the start node (root node) It can be seen that it is the parent node of the end node (terminal node) that represents the end of the command.

그러므로, 상기와 같은 구문트리(Verbal Tree)와 명령수행중인 전투기 조종사가 발화한 명령어들과 비교됨으로써 제1,…,제k 유사 단어 인식 후보군으로 선정된 일련의 단어가 명령어 구문에 부합하는지 쉽게 판단될 수 있다.Therefore, by comparing the above-mentioned syntax tree (Verbal Tree) with the commands uttered by the fighter pilot executing the command, , It can be easily judged whether or not a series of words selected as the k-like word recognition candidates matches the command syntax.

예를 들면, 단어열이 시작노드(루트노드)로부터 시작하여 종말노드(단말노드)까지 도착하는 경로가 존재할 경우 명령어 규칙에 부합하는 반면, 구문 트리를 통과하는 경로가 없는 단어열은 명령어 규칙에 어긋나므로 중간에 있는 오인식 단어 수정이 이루어질 수 있다.For example, if a word sequence starts from the starting node (root node) and arrives at the end node (terminal node), then the word rule matches the rule of the command, whereas the word string without the path that passes through the syntax tree, Because it is misaligned, the mistaken word correction in the middle can be done.

한편, 도 6은 조종사가 발화한 전투기 명령어가 주파수 변환과 같이 숫자를 사용하는 명령어와 같은 숫자 구문트리(Verbal Tree)의 예로서, 이 경우 명령어 중간에 여러 자리의 숫자가 중간에 들어감으로써 구문트리(Verbal Tree)도 이에 맞춰 구축된다.Meanwhile, FIG. 6 shows an example of a numerical phrase tree such as a command using a number, such as frequency conversion, in which a fighter's command uttered by a pilot is in the middle. In this case, (Verbal Tree) is built accordingly.

특히, 이러한 숫자 구문트리(Verbal Tree)는 여러 자리의 숫자가 포함된 구문이 표현되기 위해 숫자를 대표하는 노드가 셀프 루프(Self Loop)로 구성되는 특징을 갖는다.In particular, such a verbal tree has a feature that a node representing a number is composed of a self loop in order to express a phrase including a plurality of digits.

한편, 도 4는 S60과 같이 구문트리(Verbal Tree)를 이용한 연결단어정합이 실행된 후, S80과 같이 최종명령어인식결과로 선택되고, 이로부터 S90과 같이 조종사가 발화한 전투기 명령어가 실행됨을 나타낸다.4, after the connection word matching using the verbal tree is executed as shown in S60, it is selected as the final command recognition result as in S80, and from this, the fighter command uttered by the pilot is executed as shown in S90 .

S62에서 제1,…,제k 유사 단어 인식 후보군중 제1 유사 단어 인식 후보군이 선택되면, 선택된 제1 유사 단어 인식 후보군은 구문트리(Verbal Tree)의 구축 경로인 시작노드(루트노드)에서 종말노드(단말노드)를 거치게 된다.At S62, the first, ... , If the first similar word recognition candidate group among the k-th similar word recognition candidate groups is selected, the selected first similar word recognition candidate group selects the end node (terminal node) from the start node (root node) which is the construction path of the syntax tree .

이때, S63-1과 같이 발화길이를 고려한 부적절모델이 제외되고, S63-2와 같이 유사도 순위를 고려한 부적절모델이 제외된다. 이러한 단어 정합에 부적절모델이 제외되지 않은 결과는 도 7을 통해 알 수 있다.In this case, the inadequate model considering ignition length is excluded as in S63-1, and the inadequate model considering the similarity rank as S63-2 is excluded. The result that the inadequate model is not excluded in the word matching is shown in FIG.

도 7은 조종사가 전투기 명령어로 JETTISON, AIR TO AIR, STATION 2가 발화된 상황에서 부적절모델이 제외되지 않은 결과로서, 이 경우 각 단어별 후보군을 3개까지 나열한 다음, 각 단어별 인식결과는 유사도 값이 가장 큰 단어를 인식결과로 사용한 경우를 나타낸다. 하지만, 이 경우 두 번째 단어인 AIR TO AIR에서는 ENTER로 오 인식될 확률이 높음을 알 수 있다.FIG. 7 shows the results of the case where the inadequate model is not excluded in the situation where the pilot has uttered JETTISON, AIR TO AIR, and STATION 2 as the fighter command word. In this case, up to three candidate words for each word are listed, And the word having the largest value is used as the recognition result. However, in this case, the second word AIR TO AIR has a higher probability of being recognized as ENTER.

한편, S63은 선택된 제1 유사 단어 인식 후보군이 구문트리(Verbal Tree)의 부모노드와 매칭된 다음 그 결과로서 제1 인식결과후보군이 선정되는 과정이고, S64는 연속적으로 자식노드와 매칭됨으로써 제2 인식결과후보군이 선정되는 과정이다.S63 is a process in which the selected first similar word recognition candidate group is matched with a parent node of a syntax tree (Verbal Tree), and then a first recognition result candidate group is selected as a result, and S64 is continuously matched with a child node, The recognition result candidate process is selected.

이러한 과정은 구문트리(Verbal Tree)를 통과하면서 연속적으로 이루어진다.This process is done continuously through the verbal tree.

이어, S65에서는 제2 인식결과후보군과 제1 인식결과후보군이 서로 조합되고, S66에서는 조합의 결과로 최적으로 적합한 명령어 후보군이 선정된다. 이때, 선정된 적합 명령어 후보군은 제1 적합 명령어 후보군으로 정의된다.Next, in S65, the second recognition result candidate group and the first recognition result candidate group are combined with each other. In S66, the group of command candidates most suitable for the combination result is selected. At this time, the selected conforming command candidate group is defined as the first conforming command candidate group.

한편, S67과 같이 제1 적합 명령어 후보군이 선정된 후, 이어 제k 유사 단어 인식 후보군까지 동일한 과정이 수행되고 나면, S68에서는 그 결과로 적합 명령어 후보군이 모두 선정 완료될 수 있다. 도 8에서는 제1. …,제k 적합 명령어 후보군 선정이 이루어지는 반복 과정이 예시된다.On the other hand, after the first suitable command word candidate group is selected as in S67, and then the same process is performed until the k-like word word recognition candidate group, all of the suitable command word candidates can be selected as a result in S68. 8, ... , And an iteration process in which the candidate group of the k-th fit command is selected.

S69는 선정 완료된 모든 적합 명령어 후보군이 구문트리(Verbal Tree)에 적합한 단어로 정합된 상태로서, 도 9는 이러한 결과를 나타낸다.S69 indicates that all the selected candidate adaptive commands are matched with words suitable for the verbal tree, and FIG. 9 shows such results.

도 9는 도 5의 방식이 적용된 구문트리(Verbal Tree)를 활용함으로써 연결단어 정합기술 실행 결과를 나타낸다.FIG. 9 shows a result of executing a connection word matching technique by using a verbal tree to which the scheme of FIG. 5 is applied.

도시된 바와 같이, 단어1의 후보에서 구문트리(Verbal Tree)에 적합한 단어는 JETTISON과 SYSTEM MODE이므로 제1 인식결과후보군은 SEVEN이 제외되어 선정됨을 알 수 있다. 그리고, 단어2의 후보 중에서 구문트리(Verbal Tree)에 적합한 첫 번째 단어와 조합이 가능한 명령어는 JETTISON 및 AIR TO AIR, SYSTEM MODE 및 NAVIGATION이 제2 인식결과후보군으로 선정됨도 알 수 있다.As shown in the figure, since the words suitable for the verbal tree in the word 1 candidates are JETTISON and SYSTEM MODE, it can be seen that the first recognition result candidates are selected excluding SEVEN. It is also known that JETTISON, AIR TO AIR, SYSTEM MODE, and NAVIGATION are selected as candidate candidates for the second recognition result, which can be combined with the first word suitable for the verbal tree among the candidates of the word 2.

이어, 단어 3의 후보 중에서 단어 1과 단어 2와 결합을 고려한 구문트리(Verbal Tree)에 적합한 명령어는 JETTISON, AIR TO AIR, STATION 2 및 JETTISON, AIR TO AIR, STATION 1이고, 이로부터 명령어 인식결과의 후보가 선정되고, 이들이 제1 적합 명령어 후보군이 됨을 알 수 있다. Then, the commands which are suitable for the verbal tree considering combination of word 1 and word 2 among the candidates of word 3 are JETTISON, AIR TO AIR, STATION 2 and JETTISON, AIR TO AIR, STATION 1, Are selected, and it can be known that they are candidates for the first fit command word.

하지만, 이러한 과정을 거친 결과물로서, 명령어 발화가 종료되었을 때 명령어 인식결과 값이 두 개 이상일 경우가 발생될 수 도 있다.However, as a result of such a process, it may happen that the command recognition result value is two or more when the command utterance is terminated.

이러한 경우, 본 실시예에서는 두 개 이상인 명령어 인식결과 값에 대한 유사도 값을 비교한 다음, 그 결과로 유사도 값이 큰 명령어를 최종 인식 결과로 선택함으로써 두 개 이상인 명령어 인식결과로부터 오는 혼선이 제거될 수 있다.In this case, in the present embodiment, the similarity values of two or more instruction recognition result values are compared, and as a result, a command with a large similarity value is selected as the final recognition result, thereby eliminating crosstalk from two or more instruction recognition results .

한편, S80에서는 최종 명령어 인식결과가 선택되고, S90에서는 이러한 최종 명령어가 전투기 명령어로 수행됨을 나타내며, 명령어 수행결과는 전술한 도 2에서 설명된 바와 같이 전투기가 조종사의 음성명령으로 제어되는 결과로 나타난다.Meanwhile, in step S80, the final command recognition result is selected. In step S90, this final command is executed as a fighter command word. The command execution result is a result that the fighter is controlled by the voice command of the pilot as described in FIG. 2 .

S100은 조종사 전투기 명령어 발화 및 음성입력이 재차 확인하는 과정으로서 만약 조종사 전투기 명령어 발화가 확인되어 음성입력이 재차 입력되면 S10의 단계로 복귀되지만, 반면 조종사 전투기 명령어 발화가 없으면 S200의 대기모드로 전환된다.S100 is a process of confirming the pilot fighter command speech and voice input again. If the pilot fighter command speech is confirmed and the voice input is inputted again, the process returns to step S10, whereas if there is no pilot fighter command speech, the pilot mode is switched to the standby mode of S200 .

한편, 음성인식에 조종사의 음성데이터 모델을 사용하는 화자종속의 특성이 고려됨으로써 단어의 인식률 개선에 이용할 수 도 있다. 하지만, 본 실시예에서는 화자독립 방식에 연결단어 정합방식이 이용되어, 화자독립 방식의 고립단어 오인식을 수정함으로써 전투기 명령어의 최종 인식률이 크게 높아지는 우수한 성능이 증명되었다.On the other hand, the characteristics of the speaker dependency using the pilot's voice data model for voice recognition may be considered and used for improving the recognition rate of words. However, in the present embodiment, the connection word matching method is used in the speaker independent method, and it is proved that the recognition performance of the fighter command is greatly improved by correcting the isolated word mistake recognition of the speaker independent method.

전술된 바와 같이, 본 실시예에 따른 전투기 조종사 음성명령실행방법에서는 발화된 조종사의 음성명령어(전투기 명령어)가 단어단위별로 자동분할되어 단구간신호의 에너지 처리와 영 교차율(Zero Crossing Rate)처리로 묵음이 가려지고, MFCC(Mel-Frequency Cepstrum Coefficent)로부터 음성특성 파라미터(Parameter)가 결정됨으로써 각 단어별 인식 후보군이 설정되며, 설정된 단어별 인식 후보군이 구문트리(Verbal Tree)가 기반된 연결단어 정합기술로 연결단어 기반의 명령어로 이루어짐으로써 단어조합 수량을 크게 줄이고 명령어 인식률이 크게 높아지며, 특히 유사도 측정 횟수를 줄여줌으로써 단어 인식시간이 단축된다.As described above, in the method of executing the voice command of the fighter pilot according to the present embodiment, the speech command (fighter command) of the uttered pilot is automatically divided into word units, and energy processing of the short-range signal and zero crossing rate processing And the speech characteristic parameters are determined from the MFCC (Mel-Frequency Cepstrum Coefficent), whereby recognition candidates for each word are set, and the recognition candidates for the respective words are set for the connection word matching based on the verbal tree Based word-based instructions, which greatly reduces the number of word combinations and greatly increases the recognition rate of commands. In particular, word recognition time is shortened by reducing the number of similarity measurements.

10 : 탑재형 음성인식기 20 : 수신모듈
30 : 프로세싱모듈 31 : 음성단어처리부
32 : 음성특징추출부 33 : 유사도측정부
40 : 음성저장모듈 50 : 송신모듈
70 : 음성훈련기
100 : 전투기 200 : 공대공미사일
10: on-board speech recognizer 20: receiving module
30: Processing module 31: Speech word processor
32: voice feature extraction unit 33:
40: Voice storage module 50: Transmission module
70: Voice trainer
100: Fighter aircraft 200: Air-to-air missiles

Claims (9)

전투기 조종석에서 조종사가 발화한 전투기 명령어가 음성인식기로 입력되어 버퍼(Buffer)에 임시 저장되고, 상기 전투기 명령어의 단어별 제1, ,,,.제n프레임단위로 자동 분할되는 음성자동분할단계;
상기 제1, ,,,.제n프레임단위중 단구간 신호를 이루는 1개의 프레임단위가 선택되고, 선택된 프레임단위의 묵음판단을 거친 음성에 대한 음성특성 파라미터(Parameter)가 추출되며, 상기 음성특성 파라미터(Parameter)가 상기 제1, ,,,.제n프레임단위의 각각으로부터 획득된 후 제1,...,제k 유사단어 인식후보군으로 각각 선정되는 음성단어인식단계;
상기 제1,...,제k 유사단어 인식후보군중 1개의 유사단어 인식후보군이 선택되고, 선택된 유사단어 인식후보군이 상기 전투기 명령어로 구축된 구문트리(Verbal Tree)를 통과한 다음 적합명령어 후보군으로 선정되고, 상기 적합명령어 후보군이 상기 제1,...,제k 유사단어 인식후보군의 각각으로부터 모든 적합명령어 후보군으로 각각 선택되며, 상기 모든 적합명령어 후보군의 단어 정합 후 적합명령어들로 각각 선정되는 연결단어정합단계;
상기 적합명령어들에서 유사도 값이 판단되고, 유사도 값이 최대인 적합명령어가 최종명령어로 인식되고, 상기 최종명령어가 상기 조종사의 발화된 상기 전투기 명령어로 실행되는 음성명령실행단계;
가 포함되어 수행되는 것을 특징으로 하는 전투기 조종사 음성명령실행방법.
An automatic speech segmentation step in which a fighter command uttered by a pilot in a cockpit of a fighter aircraft is input to a speech recognizer, temporarily stored in a buffer, and automatically divided into first, second, and nth frame units of the fighter command word;
One frame unit constituting the short interval signal among the first, n, and n-th frame units is selected and a voice characteristic parameter for voice subjected to the silence judgment of the selected frame unit is extracted, A speech word recognition step of selecting a first, ..., k-th similar word recognition candidate group after a parameter is obtained from each of the first, second, nth frame units;
A similar word recognition candidate group out of the first, ..., k-th similar word recognition candidate groups is selected, the selected similar word recognition candidate group passes through a syntax tree (Verbal Tree) constructed by the fighter command word, ..., K-like word recognition candidates from the first, ..., k-th similar word recognition candidates, and the matching instruction word candidates are respectively selected as the matching commands after the word matching of all the matching instruction word candidates A connection word matching step;
A voice command execution step in which the similarity value is determined in the adaptation commands, the adaptation command having the maximum similarity value is recognized as a final command, and the final command is executed by the fighter command word uttered by the pilot;
Wherein the step of executing the voice command comprises:
청구항1에 있어서, 상기 음성자동분할단계에서, 상기 전투기 명령어는 일련의 단어 및 숫자이고, 상기 단어 및 숫자로부터 상기 제1, ,,,.제n프레임이 구성되는 것을 특징으로 하는 전투기 조종사 음성명령실행방법.
2. The method of claim 1, wherein in the automatic speech segmentation step, the fighter command is a series of words and numbers, and the first, How to do it.
청구항 1에 있어서, 상기 음성단어인식단계는 상기 제1, ,,,.제n프레임단위중 단구간 신호를 이루는 프레임단위가 묵음이 아닌 음성으로 판단된 후, 음성 신호특징을 추출하여 음성특성 파라미터(Parameter)가 추출되며, 상기 음성특성 파라미터(Parameter)로 구성된 인식단어들이 상기 제1,...,제k 유사단어 인식후보군으로 추출되는 음성단어인식모드;
로 수행되는 것을 특징으로 하는 전투기 조종사 음성명령실행방법.
The method of claim 1, wherein the speech word recognition step comprises: extracting a speech signal characteristic after the frame unit of the first, second, nth frame unit is determined as a non-silent speech, A speech word recognition mode in which recognition words composed of the speech characteristic parameters are extracted as the first, ..., k-th similar word recognition candidates;
Wherein the step of executing the command comprises:
청구항 1에 있어서, 상기 연결단어정합단계에서, 상기 선택된 유사단어 인식후보군에는 발화길이와 유사도 순위가 고려되고, 적합하지 않은 발화길이와 유사도 순위를 갖는 부적절모델이 제외되는 것을 특징으로 하는 전투기 조종사 음성명령실행방법.

2. The method according to claim 1, wherein, in the linked word matching step, the selected similar word recognition candidate group includes the ignition length and the similarity rank, and the inappropriate model having the ignition length and the similarity rank that are not suitable is excluded How to run the command.

청구항 1에 있어서, 상기 연결단어정합단계에서, 상기 구문트리(Verbal Tree)는 상기 전투기 명령어가 구문일 때 시작노드를 시작점으로 해서 종말노드를 끝점으로 하고, 상기 시작노드와 상기 종말노드사이에서 명령어 규칙에 따라 앞에 나오는 단어가 부모노드가 되고 뒤에 나오는 단어가 자식노드로 도착 경로를 형성하며;
상기 전투기 명령어가 숫자일 때, 숫자를 대표하는 노드가 셀프 루프(Self Loop)로 구성되어져 여러 자리의 숫자가 포함된 구문으로 구축되고;
상기 적합명령어 후보군은 상기 구문트리(Verbal Tree)의 상기 경로를 통과할 때 선정되는 것을 특징으로 하는 전투기 조종사 음성명령실행방법.
2. The method of claim 1, wherein, in the connection word matching step, the verbal tree includes an end node as a start point and a start node as an end point when the fighter command is a phrase, According to the rule, the preceding word becomes the parent node and the following word forms the arrival path to the child node;
When the fighter command is a numeral, a node representing a number is constructed as a self loop including a plurality of digits;
Wherein the fit command word candidate is selected when passing through the path of the verbal tree.
청구항 5에 있어서, 상기 경로가 통과되면, 상기 경로의 상기 부모노드를 통과한 제1 인식결과후보군과 상기 자식노드를 통과한 제2 인식결과후보군이 선정되고, 상기 제1 인식결과후보군과 상기 제2 인식결과후보군이 서로 조합되며, 상기 조합결과로 상기 적합명령어 후보군이 선정되는 것을 특징으로 하는 전투기 조종사 음성명령실행방법.
6. The method of claim 5, wherein when the path is passed, a first recognition result candidate group that has passed through the parent node of the path and a second recognition result candidate group that has passed through the child node are selected, 2 recognition result candidate groups are combined with each other, and the fit command word candidate group is selected as a result of the combination.
청구항 1에 있어서, 상기 음성명령실행단계에서, 상기 유사도 판단 후 2개 이상의 인식결과로 적합명령어가 선정되면, 상기 유사도 값이 비교된 후 상대적으로 유사도 값이 큰 적합명령어가 최종 인식 결과로 선택되는 것을 특징으로 하는 전투기 조종사 음성명령실행방법.
The method according to claim 1, wherein, in the voice command execution step, when the goodness-of-fit command is selected from two or more recognition results after the determination of the similarity degree, a suitable command having a relatively high similarity value is selected as the final recognition result A method for executing a fighter pilot voice command,
전투기 조종석(Cockpit)에서 조종사의 발화된 음성명령어가 수신되는 수신모듈과, 상기 수신모듈의 음성신호에서 상기 음성명령어의 명령어 후보를 선택한 후 읽어 들인 조종사 음성데이터 모델과 유사도를 비교한 다음 최종 명령어로 확정하는 프로세싱모듈과, 상기 최종 명령어가 상기 전투기에서 실행되도록 상기 최종 명령어를 출력하는 송신모듈과, 상기 프로세싱모듈이 읽어 들이는 상기 조종사 음성데이터 모델을 내장한 음성저장모듈로 구성된 탑재형 음성인식기; 가 포함되고,
상기 프로세싱모듈에는 상기 음성명령어를 단어단위로 자동분할하고, 분할된 단어단위에 대한 단구간신호의 에너지 처리와 함께 단구간신호의 영 교차율(Zero Crossing Rate) 처리가 수행되어 묵음을 제외한 음성을 분류하는 음성단어처리부와; 상기 음성에 MFC(Mel-Frequency Cepstrum)처리를 적용하고, MFC(Mel-Frequency Cepstrum)처리에 의한 계수(Coefficent)를 모은 MFCC(Mel-Frequency Cepstrum Coefficent)로 음성특성 파라미터가 선정되며, 상기 음성특성 파라미터로부터 상기 명령어 후보가 선택되는 음성특징추출부와; 상기 선택된 명령어 후보와 상기 조종사 음성데이터 모델의 유사도가 판단되도록 HMM(Hidden Markov Model)의 VD알고리즘(Viterbi Decoding Algorism)을 적용하고, 상기 조종사 음성데이터 모델과 유사도를 판단하고, 구문트리(Verbal Tree)기반의 정합과정을 통해 상기 선택된 명령어 후보를 최종 명령어로 확정하는 유사도측정부;로 구성된 것을 특징으로 하는 전투기 조종사 음성명령어 인식 시스템.
A receiving module for receiving a voice command voice of a pilot from a cockpit of a fighter; and a pilot voice data model for selecting a command word of the voice command from the voice signal of the receiving module, comparing the similarity with the read pilot voice data model, And a speech storage module including the pilot speech data model read by the processing module, wherein the speech recognition module comprises: a speech recognition module configured to recognize the final instruction word; / RTI >
The processing module automatically divides the speech command word by word, performs energy processing of the short-term signal on the word unit basis, and performs zero crossing rate processing on the short-term signal to classify the voice except the silence A speech word processing unit; A voice characteristic parameter is selected as an MFCC (Mel-Frequency Cepstrum Coefficient) for applying a MFC (Mel-Frequency Cepstrum) process to the voice and collecting a coefficient by a MFC (Mel-Frequency Cepstrum) A speech feature extraction unit for selecting the instruction word from the parameter; A Viterbi Decoding Algorithm (HMM) of a HMM (Hidden Markov Model) is applied to determine the similarity between the selected command word candidate and the pilot voice data model, a similarity to the pilot voice data model is determined, And a similarity measuring unit for determining the selected command candidate as a final command through a matching process based on the comparison result.
삭제delete
KR1020130004957A 2013-01-16 2013-01-16 Aircraft Voice Command Execution Method and Cockpit Voice Command Recognizer System therefor KR101427806B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130004957A KR101427806B1 (en) 2013-01-16 2013-01-16 Aircraft Voice Command Execution Method and Cockpit Voice Command Recognizer System therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130004957A KR101427806B1 (en) 2013-01-16 2013-01-16 Aircraft Voice Command Execution Method and Cockpit Voice Command Recognizer System therefor

Publications (2)

Publication Number Publication Date
KR20140092645A KR20140092645A (en) 2014-07-24
KR101427806B1 true KR101427806B1 (en) 2014-08-07

Family

ID=51739241

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130004957A KR101427806B1 (en) 2013-01-16 2013-01-16 Aircraft Voice Command Execution Method and Cockpit Voice Command Recognizer System therefor

Country Status (1)

Country Link
KR (1) KR101427806B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112652325B (en) * 2020-12-15 2023-12-15 平安科技(深圳)有限公司 Remote voice adjustment method based on artificial intelligence and related equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030033394A (en) * 2001-10-22 2003-05-01 한국전자통신연구원 Tree search based speech recognition method and speech recognition system thereby
JP2008076812A (en) 2006-09-22 2008-04-03 Honda Motor Co Ltd Voice recognition device, voice recognition method and voice recognition program
JP2012043200A (en) 2010-08-19 2012-03-01 Toshiba Corp Control operation support device and control operation instruction method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030033394A (en) * 2001-10-22 2003-05-01 한국전자통신연구원 Tree search based speech recognition method and speech recognition system thereby
JP2008076812A (en) 2006-09-22 2008-04-03 Honda Motor Co Ltd Voice recognition device, voice recognition method and voice recognition program
JP2012043200A (en) 2010-08-19 2012-03-01 Toshiba Corp Control operation support device and control operation instruction method

Also Published As

Publication number Publication date
KR20140092645A (en) 2014-07-24

Similar Documents

Publication Publication Date Title
US10319250B2 (en) Pronunciation guided by automatic speech recognition
EP3132442B1 (en) Keyword model generation for detecting a user-defined keyword
EP3050052B1 (en) Speech recognizer with multi-directional decoding
EP2048655B1 (en) Context sensitive multi-stage speech recognition
US20220343895A1 (en) User-defined keyword spotting
US8532991B2 (en) Speech models generated using competitive training, asymmetric training, and data boosting
US8271283B2 (en) Method and apparatus for recognizing speech by measuring confidence levels of respective frames
US20050049865A1 (en) Automatic speech clasification
KR102655791B1 (en) Speaker authentication method, learning method for speaker authentication and devices thereof
CN105654947B (en) Method and system for acquiring road condition information in traffic broadcast voice
KR20210047709A (en) Voice recognizing method and voice recognizing appratus
WO2010128560A1 (en) Voice recognition device, voice recognition method, and voice recognition program
KR20160059265A (en) Method And Apparatus for Learning Acoustic Model Considering Reliability Score
EP2985760B1 (en) Methods and apparatus for interpreting received speech data using speech recognition
KR101427806B1 (en) Aircraft Voice Command Execution Method and Cockpit Voice Command Recognizer System therefor
KR102199445B1 (en) Method and apparatus for discriminative training acoustic model based on class, and speech recognition apparatus using the same
CN102237082B (en) Self-adaption method of speech recognition system
KR20200129007A (en) Utterance verification device and method
EP2991072A1 (en) Methods and apparatus for interpreting clipped speech using speech recognition
US20210232670A1 (en) Artificial intelligence service method and device therefor
KR100998230B1 (en) Speaker independent voice recognition processing method
EP3496092B1 (en) Voice processing apparatus, voice processing method and program
Han et al. Phone mismatch penalty matrices for two-stage keyword spotting via multi-pass phone recognizer.
Joshi et al. Mfcc-based voice recognition system for home automation using dynamic programming
KR100677224B1 (en) Speech recognition method using anti-word model

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170801

Year of fee payment: 4