KR101207435B1 - Interactive speech recognition server, interactive speech recognition client and interactive speech recognition method thereof - Google Patents
Interactive speech recognition server, interactive speech recognition client and interactive speech recognition method thereof Download PDFInfo
- Publication number
- KR101207435B1 KR101207435B1 KR1020120074364A KR20120074364A KR101207435B1 KR 101207435 B1 KR101207435 B1 KR 101207435B1 KR 1020120074364 A KR1020120074364 A KR 1020120074364A KR 20120074364 A KR20120074364 A KR 20120074364A KR 101207435 B1 KR101207435 B1 KR 101207435B1
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- recognition
- information
- speech
- recognition target
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/083—Recognition networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
Abstract
Description
본 발명은 대화형 음성인식 서버, 대화형 음성인식 클라이언트 및 대화형 음성인식 방법에 관한 것으로서, 보다 상세하게는 클라이언트에서 제공하는 대화형식 정보에 기초하여 사용자에게 안내음성을 출력하거나 사용자로부터 음성을 입력 받아 음성인식을 수행할 수 있는 대화형 음성인식 방법, 및 그 방법을 수행하는 대화형 음성인식 서버 및 대화형 음성인식 클라이언트에 관한 것이다.
The present invention relates to an interactive voice recognition server, an interactive voice recognition client, and an interactive voice recognition method, and more particularly, to output a guide voice to a user or input a voice from the user based on conversation type information provided by the client. The present invention relates to an interactive voice recognition method capable of receiving voice recognition, and an interactive voice recognition server and an interactive voice recognition client for performing the method.
음성인식(speech recognition) 기술이란 인간이 발화한 음성과 같은 음향학적 신호(acoustic speech signal)을 컴퓨터가 분석해 이를 인식 또는 이해하는 기술을 말하는데, 발음에 따라 입 모양과 혀의 위치 변화에 따라 특정한 주파수를 갖는 다는 점을 이용하여, 발성된 음성을 전기신호로 변환한 후 음성신호의 주파수 특성을 추출해 발음을 인식하는 기술이다.Speech recognition technology refers to a technology in which a computer analyzes an acoustic speech signal such as a human speech and recognizes or understands it. A specific frequency according to the shape of the mouth and the position of the tongue depends on the pronunciation. It is a technology that recognizes the pronunciation by extracting the frequency characteristics of the speech signal after converting the spoken voice into an electrical signal by using a.
한편, 음성은 일상 생활에서 가장 효과적이고 자연스러운 의사소통방법으로서, 사용자의 음성명령의 처리는 음성인식 기술의 발전과 더불어 인간과 기계 간의 새로운 인터페이스로 제안 및 개발되고 있다. 음성입력은 키보드나 마우스 등 기존의 입력장치의 사용이 미숙한 사람도 쉽게 사용할 수 있으며 정보입력속도도 빠를 뿐만 아니라 정보입력과 동시에 손으로 다른 일을 할 수 있다는 장점이 있다. 특히, 최근 급속도로 보급되고 있는 터치 스크린을 구비한 스마트폰의 경우, 터치 스크린 상에 나타나는 가상 키보드를 통해 문자입력 등 조작을 하게 되는데, 이러한 가상 키보드에 의한 입력의 불편함을 해소할 수 있는 대안으로 음성입력이 강하게 대두되고 있으며, 음성인식 서비스를 개발하고자 하는 자가 그 서비스를 용이하게 구현할 수 있도록 하는 방안에 대한 요구가 계속 커지고 있는 실정이다.On the other hand, voice is the most effective and natural communication method in daily life, and the processing of the user's voice command has been proposed and developed as a new interface between human and machine with the development of voice recognition technology. Voice input can be easily used by those who are inexperienced in using existing input devices such as keyboards and mice. It also has the advantage of fast information input speed and other tasks by hand at the same time as information input. Particularly, in the case of a smart phone having a touch screen, which is rapidly spreading in recent years, a character input or the like is operated through a virtual keyboard appearing on the touch screen, and an alternative that can solve the inconvenience of the input by the virtual keyboard. As a result, voice inputs are rising strongly, and the demand for a method for easily implementing a voice recognition service can be easily implemented.
한편, 종래의 음성인식 방법은 일반적으로 사용자가 발화한 음성에서 특징 데이터를 추출하고, 추출된 특징 데이터를 이용하여 어휘 데이터베이스에 등록된 단어 중 유사도가 높은 단어를 선정하는 과정으로 이루어지는데, 어휘 데이터베이스가 너무 많은 어휘를 포함하고 있는 경우에는 서로 유사한 단어가 다수 존재하게 되고, 그로 인해 인식률이 저하되는 문제가 발생한다.
On the other hand, the conventional speech recognition method generally consists of extracting feature data from the speech spoken by the user and selecting words with high similarity among words registered in the lexical database using the extracted feature data. Contains too many vocabulary words, many words that are similar to each other exist, which causes a problem of lowering the recognition rate.
본 발명이 이루고자 하는 기술적 과제는 상술한 종래의 문제점을 해결하고자 하는 것으로서, 음성인식 클라이언트에서 동작하는 소정의 음성인식 서비스를 개발하고자 하는 자가 용이하게 이용할 수 있는 음성인식 API를 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in an effort to solve the above-described problems, and provides a voice recognition API that can be easily used by a person who wants to develop a predetermined voice recognition service that operates in a voice recognition client.
또한, 음성인식을 원하는 클라이언트가 음성인식에 사용될 어휘집합을 결정할 수 있도록 함으로써 음성인식의 인식률을 향상시키고 신속하게 음성인식을 할 수 있는 음성인식 시스템 및 음성인식 방법을 제공하는 것이다.
In addition, it is possible to provide a speech recognition system and a speech recognition method that can improve the speech recognition rate and quickly recognize the speech by allowing a client who wants speech recognition to determine the lexical set to be used for speech recognition.
본 발명의 일 측면에 따르면, (a) 음성인식 서버가 클라이언트로부터 사용자에 의해 순차적으로 발화되는 적어도 하나의 인식대상 음성 각각에 상응하는 인식대상 음성 정보를 포함하는 대화형식 정보를 수신하는 단계, (b) 상기 음성인식 서버가 상기 대화형식 정보에 기초하여 상기 클라이언트로부터 상기 적어도 하나의 인식대상 음성 각각을 순차적으로 수신하는 단계, (c) 상기 음성인식 서버가 수신한 상기 적어도 하나의 인식대상 음성 각각에 대한 음성 인식을 수행하는 단계 및 (d) 상기 음성인식 서버가 상기 적어도 하나의 인식대상 음성 각각에 대한 음성인식 결과를 상기 클라이언트로 전송하는 단계를 포함하는 대화형 음성인식 방법이 제공된다.According to an aspect of the present invention, (a) the speech recognition server receives from the client conversation type information including speech recognition information corresponding to each of at least one speech recognition object that is sequentially spoken by the user, ( b) the voice recognition server sequentially receiving each of the at least one recognition target voice from the client based on the conversation type information, and (c) each of the at least one recognition target voice received by the voice recognition server. And performing voice recognition on the voice recognition server, and (d) transmitting the voice recognition result of each of the at least one voice to be recognized to the client by the voice recognition server.
일 실시예에서, 상기 인식대상 음성 정보 각각은 항목안내 텍스트를 포함하며, 상기 (b) 단계는, 상기 음성인식 서버가, 상기 적어도 하나의 인식대상 음성 각각에 대하여 순차적으로, 상기 인식대상 음성에 상응하는 상기 인식대상 음성 정보에 포함된 항목안내 텍스트를 음성 변환하여 상기 클라이언트에 전송하고 상기 클라이언트로부터 상기 인식대상 음성을 수신하는 단계를 포함할 수 있다.In one embodiment, each of the recognition target voice information includes an item guide text, the step (b), the voice recognition server, for each of the at least one recognition target voice sequentially, the recognition target voice And converting the item guide text included in the speech recognition information corresponding to the speech into the client and receiving the speech to be received from the client.
일 실시예에서, 상기 적어도 하나의 인식대상 음성 정보 각각은 음성인식 결과 변수를 포함하며, 상기 (d) 단계는, 상기 음성인식 서버가, 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성을 음성 인식한 결과를 상기 인식대상 음성에 상응하는 음성인식 결과 변수에 저장하여 상기 클라이언트로 전송하는 단계를 포함할 수 있다.In one embodiment, each of the at least one recognition target voice information includes a voice recognition result variable, wherein step (d) is performed by the voice recognition server for each of the at least one recognition target voice. And storing the result of speech recognition in a voice in a speech recognition result variable corresponding to the speech to be recognized.
일 실시예에서, 상기 대화형식 정보는, 상기 적어도 하나의 인식대상 음성 정보에 포함된 음성인식 결과 변수를 포함하는 결과안내 텍스트를 더 포함하며, 상기 대화형 음성인식 방법은, 상기 결과안내 텍스트에 기초하여 결과안내 음성을 생성하고, 생성된 상기 결과안내 음성을 상기 클라이언트에 전송하는 단계를 더 포함할 수 있다.In one embodiment, the dialogue format information further includes a result guide text including a voice recognition result variable included in the at least one recognition target voice information, and the interactive voice recognition method includes: Generating a result guide voice based on the result; and transmitting the generated result guide voice to the client.
일 실시예에서, 상기 대화형 음성인식 방법은,In one embodiment, the interactive voice recognition method,
(e) 상기 음성인식 서버가, 상기 (c) 단계 이전에, 상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 기초하여 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀을 결정하는 단계를 더 포함하며, 상기 (c) 단계는, 상기 음성인식 서버가, 수신한 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성의 인식대상어휘풀을 이용하여 음성인식을 수행하는 단계를 포함할 수 있다.(e) The voice recognition server, before the step (c), for each of the recognition target voice information, on the basis of the recognition target voice information, the recognition target vocabulary of the recognition target voice corresponding to the recognition target voice information; The method may further include: determining, by the voice recognition server, speech recognition using the recognition target lexicon of the recognition target voice, for each of the received at least one recognition target voice. It may include the step of performing.
일 실시예에서, 상기 적어도 하나의 인식대상 음성 정보 각각은, 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀을 식별하기 위한 어휘풀식별정보를 포함하며, 상기 대화형식 정보는, 적어도 하나의 어휘집합을 더 포함하며, 상기 적어도 하나의 어휘집합 각각은, 상기 어휘풀식별정보 중 어느 하나에 의해 식별될 수 있다.In one embodiment, each of the at least one recognition target speech information includes lexical pool identification information for identifying a recognition target lexicon of the recognition target speech corresponding to the recognition target speech information, wherein the dialogue format information, Further comprising at least one vocabulary set, each of the at least one vocabulary set, can be identified by any one of the lexical pool identification information.
일 실시예에서, 상기 (e) 단계는, 상기 음성인식 서버가, 상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보에 포함된 경우 상기 어휘집합을 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀로 결정하는 단계를 더 포함할 수 있다.In one embodiment, the step (e), the speech recognition server, the lexical set identified by the lexical identification information included in the recognition target voice information for each of the recognition target voice information is the conversation type information The method may further include determining the lexical set as a recognition target lexicon of the recognition target voice corresponding to the recognition target speech information.
일 실시예에서, 상기 음성인식 방법은, 상기 음성인식 서버가, 상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보에 포함된 경우 상기 어휘집합을 데이터베이스에 저장하는 단계를 더 포함할 수 있다.In one embodiment, the speech recognition method, the speech recognition server, for each of the recognition target voice information, the lexical set identified by the lexical pool identification information included in the recognition target voice information to the conversation type information If included, the method may further include storing the lexicon in a database.
일 실시예에서, 상기 (e) 단계는, 상기 음성인식 서버가, 상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보에 포함되지 않은 경우 상기 데이터베이스에 저장된 어휘집합 중 상기 어휘풀식별정보에 의해 식별되는 어휘집합을 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀로 결정하는 단계를 포함할 수 있다.In one embodiment, the step (e), the speech recognition server, the lexical set identified by the lexical identification information included in the recognition target voice information for each of the recognition target voice information is the conversation type information If not included in the vocabulary set stored in the database may include determining the vocabulary set identified by the vocabulary identification information as the recognition target vocabulary of the speech to be recognized corresponding to the speech information.
일 실시예에서, 상기 음성인식 방법은,In one embodiment, the voice recognition method,
상기 음성인식 서버가, 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성의 인식대상어휘풀에 포함된 어휘에 대한 어휘 트리(lexical tree)를 생성하는 단계를 더 포함하되, 상기 (c) 단계는, 상기 음성인식 서버가, 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성의 인식대상어휘풀에 대한 어휘 트리를 이용하여 상기 인식대상 음성에 대한 음성인식을 수행하는 단계를 포함할 수 있다.The speech recognition server, for each of the at least one recognition target voice, generating a lexical tree (lexical tree) for the vocabulary included in the recognition target lexicon of the recognition target voice, the (c ), The voice recognition server, for each of the at least one recognition target voice, performing the speech recognition for the recognition target voice using a lexical tree for the recognition target vocabulary of the recognition target voice. It may include.
본 발명의 다른 일 측면에 따르면, (a) 음성인식 클라이언트가 사용자에 의해 순차적으로 발화되는 적어도 하나의 인식대상 음성 각각에 상응하는 인식대상 음성 정보를 포함하는 대화형식 정보를 음성인식 서버로 전송하는 단계, (b) 음성인식 클라이언트가 상기 대화형식 정보에 기초하여 상기 적어도 하나의 인식대상 음성 각각을 순차적으로 상기 음성인식 서버로 전송하는 단계, (c) 상기 음성인식 클라이언트가 상기 음성인식 서버로부터 상기 적어도 하나의 인식대상 음성 각각에 대한 음성인식 결과를 수신하는 단계를 포함하는 대화형 음성인식 방법이 제공된다.According to another aspect of the present invention, (a) the voice recognition client transmits the conversation type information including the recognition target voice information corresponding to each of the at least one recognition target speech sequentially uttered by the user to the voice recognition server (B) the voice recognition client sequentially transmitting each of the at least one voice to be recognized to the voice recognition server based on the conversation type information, and (c) the voice recognition client from the voice recognition server. An interactive speech recognition method is provided that includes receiving a speech recognition result for each of at least one speech to be recognized.
일 실시예에서, 상기 인식대상 음성 정보 각각은 항목안내 텍스트를 포함하며, 상기 (b) 단계는, 상기 음성인식 클라이언트가, 상기 적어도 하나의 인식대상 음성 각각에 대하여 순차적으로, 상기 인식대상 음성에 상응하는 상기 인식대상 음성 정보에 포함된 항목안내 텍스트를 음성 변환하여 출력하고 상기 인식대상 음성을 상기 음성인식 서버로 전송하는 단계를 포함할 수 있다.In one embodiment, each of the recognition target voice information includes an item guide text, the step (b), the voice recognition client, for each of the at least one recognition target voice, sequentially to the recognition target voice And converting and outputting the item guide text included in the corresponding recognition target voice information and transmitting the recognition target voice to the voice recognition server.
일 실시예에서, 상기 적어도 하나의 인식대상 음성 정보 각각은 음성인식 결과 변수를 포함하며, 상기 (c) 단계는, 상기 음성인식 클라이언트가, 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성에 대한 음성 인식한 결과가 저장된 상기 인식대상 음성에 상응하는 음성인식 결과 변수를 수신하는 단계를 포함할 수 있다.In one embodiment, each of the at least one recognition target voice information includes a voice recognition result variable, and in step (c), the voice recognition client, for each of the at least one recognition target voice, the recognition target And receiving a voice recognition result variable corresponding to the voice to be recognized, in which a voice recognition result for the voice is stored.
일 실시예에서, 상기 대화형식 정보는, 상기 적어도 하나의 인식대상 음성 정보에 포함된 음성인식 결과 변수를 포함하는 결과안내 텍스트를 더 포함하며, 상기 대화형 음성인식 방법은, 상기 음성인식 클라이언트가 상기 결과안내 텍스트에 기초하여 결과안내 음성을 생성하고 생성된 상기 결과안내 음성을 출력하는 단계를 더 포함할 수 있다.In one embodiment, the conversation type information further comprises a result guide text including a voice recognition result variable included in the at least one recognition target voice information, the interactive voice recognition method, the voice recognition client, The method may further include generating a result guide voice based on the result guide text and outputting the generated result guide voice.
본 발명의 다른 일 측면에 따르면, 상술한 음성인식 방법을 수행하는 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록매체가 제공된다.According to another aspect of the present invention, there is provided a computer-readable recording medium on which a computer program for performing the above voice recognition method is recorded.
본 발명의 다른 일 측면에 따르면, 클라이언트로부터 사용자에 의해 순차적으로 발화되는 적어도 하나의 인식대상 음성 각각에 상응하는 인식대상 음성 정보를 포함하는 대화형식 정보를 수신하는 정보수신모듈, 상기 대화형식 정보에 기초하여 상기 클라이언트로부터 상기 적어도 하나의 인식대상 음성 각각을 순차적으로 수신하는 음성수신모듈, 수신한 상기 적어도 하나의 인식대상 음성 각각에 대한 음성 인식을 수행하는 음성인식모듈; 및 상기 적어도 하나의 인식대상 음성 각각에 대한 음성인식 결과를 상기 클라이언트로 전송하는 결과전송모듈을 포함하는 대화형 음성인식 서버가 제공된다.According to another aspect of the present invention, an information receiving module for receiving a conversation type information including recognition object voice information corresponding to each of at least one recognition object speech sequentially uttered by a user from a client, the conversation type information A voice receiving module sequentially receiving each of the at least one recognition target voice from the client, and a voice recognition module performing voice recognition on each of the at least one recognition target voice; And a result transmission module for transmitting a voice recognition result for each of the at least one recognition target voice to the client.
일 실시예에서, 상기 인식대상 음성 정보 각각은 항목안내 텍스트를 포함하며, 상기 대화형 음성인식 서버는, 상기 적어도 하나의 인식대상 음성 각각을 수신하기 전에, 상기 인식대상 음성에 상응하는 상기 인식대상 음성 정보에 포함된 항목안내 텍스트를 음성 변환하여 상기 클라이언트에 전송하는 TTS(Text-To-Speech)모듈을 더 포함할 수 있다.In one embodiment, each of the recognition target voice information includes an item guide text, the interactive voice recognition server, before receiving each of the at least one recognition target voice, the recognition target corresponding to the recognition target voice The apparatus may further include a text-to-speech (TTS) module that converts the item guide text included in the voice information and transmits the converted text to the client.
일 실시예에서, 상기 적어도 하나의 인식대상 음성 정보 각각은 음성인식 결과 변수를 포함하며, 상기 결과전송모듈은, 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성을 음성 인식한 결과를 상기 인식대상 음성에 상응하는 음성인식 결과 변수에 저장하여 상기 클라이언트로 전송할 수 있다.In one embodiment, each of the at least one recognition target voice information includes a voice recognition result variable, the result transmission module, for each of the at least one recognition target voice, the result of the voice recognition of the recognition target voice The voice recognition result variable corresponding to the recognition target voice may be stored and transmitted to the client.
일 실시예에서, 상기 대화형식 정보는, 상기 적어도 하나의 인식대상 음성 정보에 포함된 음성인식 결과 변수를 포함하는 결과안내 텍스트를 더 포함하며, 상기 대화형 음성인식 서버는, 상기 결과안내 텍스트에 기초하여 결과안내 음성을 생성하고 생성된 상기 결과안내 음성을 상기 클라이언트에 전송하는 TTS모듈을 더 포함할 수 있다.In one embodiment, the conversation type information further comprises a result guide text including a voice recognition result variable included in the at least one recognition target voice information, the interactive voice recognition server, The apparatus may further include a TTS module configured to generate a result guide voice based on the result and to transmit the generated result guide voice to the client.
일 실시예에서, 상기 대화형 음성인식 서버는, 상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 기초하여 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀을 결정하는 어휘풀 결정모듈을 더 포함하며, 상기 음성인식모듈은, 수신한 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성의 인식대상어휘풀을 이용하여 음성인식을 수행할 수 있다.In one embodiment, the interactive voice recognition server, for each of the recognition target voice information, a vocabulary for determining a recognition target vocabulary of the recognition target voice corresponding to the recognition target voice information based on the recognition target voice information. The apparatus may further include a pool determination module, and the voice recognition module may perform voice recognition on each of the received at least one recognition target voice using a recognition target vocabulary of the recognition target voice.
일 실시예에서, 상기 적어도 하나의 인식대상 음성 정보 각각은, 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀을 식별하기 위한 어휘풀식별정보를 포함하며, 상기 대화형식 정보는, 적어도 하나의 어휘집합을 더 포함하며, 상기 적어도 하나의 어휘집합 각각은, 상기 어휘풀식별정보 중 어느 하나에 의해 식별될 수 있다.In one embodiment, each of the at least one recognition target speech information includes lexical pool identification information for identifying a recognition target lexicon of the recognition target speech corresponding to the recognition target speech information, wherein the dialogue format information, Further comprising at least one vocabulary set, each of the at least one vocabulary set, can be identified by any one of the lexical pool identification information.
일 실시예에서, 상기 어휘풀 결정모듈은, 상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보에 포함된 경우 상기 어휘집합을 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀로 결정할 수 있다.In an embodiment, the lexical pool determining module may include, for each of the speech target speech information, the lexical set identified by the lexical pool identification information included in the speech speech information included in the conversation type information. The set may be determined as a recognition target vocabulary of the recognition target speech corresponding to the recognition target speech information.
일 실시예에서, 상기 음성인식 서버는 저장모듈을 더 포함하되, 상기 저장모듈은, 상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보에 포함된 경우 상기 어휘집합을 데이터베이스에 저장할 수 있다.In one embodiment, the voice recognition server further comprises a storage module, wherein the storage module, for each of the recognition target voice information, the lexical set identified by the lexical pool identification information included in the recognition target voice information When included in the conversation type information, the lexicon may be stored in a database.
일 실시예에서, 상기 어휘풀 결정모듈은, 상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보에 포함되지 않은 경우 상기 데이터베이스에 저장된 어휘집합 중 상기 어휘풀식별정보에 의해 식별되는 어휘집합을 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀로 결정할 수 있다.In one embodiment, the lexical pool determining module is configured to, when the lexical set identified by the lexical pool identification information included in the recognition target voice information, is not included in the conversation type information for each of the recognition target voice information. The lexical set identified by the lexical pool identification information among the lexical sets stored in the database may be determined as the recognition target lexicon of the recognition target speech corresponding to the recognition target speech information.
일 실시예에서, 상기 음성인식 서버는,In one embodiment, the voice recognition server,
상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성의 인식대상어휘풀에 포함된 어휘에 대한 어휘 트리(lexical tree)를 생성하는 어휘트리 생성모듈을 더 포함하되, 상기 음성인식모듈은, 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성의 인식대상어휘풀에 대한 어휘 트리를 이용하여 상기 인식대상 음성에 대한 음성인식을 수행할 수 있다.For each of the at least one recognition target voice, further comprising a lexical tree generation module for generating a lexical tree for the vocabulary included in the recognition target lexicon of the recognition target voice, wherein the speech recognition module, For each of the at least one voice to be recognized, voice recognition may be performed on the voice to be recognized using a lexical tree of a pool of words to be recognized.
본 발명의 다른 일 측면에 따르면, 사용자에 의해 순차적으로 발화되는 적어도 하나의 인식대상 음성 각각에 상응하는 인식대상 음성 정보를 포함하는 대화형식 정보를 음성인식 서버로 전송하는 정보전송모듈;According to another aspect of the invention, the information transmission module for transmitting the conversation type information including the recognition target voice information corresponding to each of the at least one recognition target speech sequentially uttered by the user to the voice recognition server;
상기 대화형식 정보에 기초하여 상기 적어도 하나의 인식대상 음성 각각을 순차적으로 상기 음성인식 서버로 전송하는 음성전송모듈; 및A voice transmission module for sequentially transmitting each of the at least one recognition target voice to the voice recognition server based on the conversation type information; And
상기 음성인식 서버로부터 상기 적어도 하나의 인식대상 음성 각각에 대한 음성인식 결과를 수신하는 결과수신모듈을 포함하는 대화형 음성인식 클라이언트가 제공된다.There is provided an interactive voice recognition client including a result receiving module for receiving a voice recognition result for each of the at least one voice to be recognized from the voice recognition server.
일 실시예에서, 상기 인식대상 음성 정보 각각은 항목안내 텍스트를 포함하며, 상기 대화형 음성인식 클라이언트는, 상기 적어도 하나의 인식대상 음성 각각을 전송하기 전에, 상기 인식대상 음성에 상응하는 상기 인식대상 음성 정보에 포함된 항목안내 텍스트를 음성 변환하여 출력하는 TTS모듈을 더 포함할 수 있다.In one embodiment, each of the recognition target voice information includes an item guide text, and before the interactive voice recognition client transmits each of the at least one recognition target voice, the recognition target corresponding to the recognition target voice. The apparatus may further include a TTS module for converting and outputting the item guide text included in the voice information.
일 실시예에서, 상기 적어도 하나의 인식대상 음성 정보 각각은 음성인식 결과 변수를 포함하며, 상기 결과수신모듈은, 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성에 대한 음성 인식한 결과가 저장된 상기 인식대상 음성에 상응하는 음성인식 결과 변수를 수신하는 단계를 포함할 수 있다.In one embodiment, each of the at least one recognition target voice information includes a voice recognition result variable, the result receiving module, for each of the at least one recognition target voice, the result of the voice recognition for the recognition target voice The method may include receiving a voice recognition result variable corresponding to the stored recognition voice.
일 실시예에서, 상기 대화형식 정보는, 상기 적어도 하나의 인식대상 음성 정보에 포함된 음성인식 결과 변수를 포함하는 결과안내 텍스트를 더 포함하며, 상기 대화형 음성인식 클라이언트는, 상기 결과안내 텍스트에 기초하여 결과안내 음성을 생성하고 생성된 상기 결과안내 음성을 출력하는 TTS모듈을 더 포함할 수 있다.
In one embodiment, the conversation type information further comprises a result guide text including a voice recognition result variable included in the at least one recognition target voice information, the interactive voice recognition client, The apparatus may further include a TTS module configured to generate a result guide voice based on the result and output the generated result guide voice.
본 발명의 실시예에 따르면 상기 음성인식 클라이언트는 자신이 사용자에게 제공하는 서비스에 특화된 대화 구조를 지정하여 상기 대화형 음성인식 서버가 음성인식을 수행하도록 함으로써, 상기 대화형 음성인식 클라이언트의 서비스에 부합하는 음성인식 결과를 얻을 수 있는 효과가 있다. 즉, 본 발명의 실시예에 따르면, 상기 대화형 음성인식 클라이언트에서 동작하는 소정의 음성인식 서비스를 개발하고자 하는 자가 용이하게 이용할 수 있는 음성인식 API를 제공할 수 있다.According to an embodiment of the present invention, the voice recognition client specifies a conversation structure specialized for a service provided to the user so that the interactive voice recognition server performs voice recognition, thereby meeting the service of the interactive voice recognition client. It is effective to obtain a voice recognition result. That is, according to an embodiment of the present invention, it is possible to provide a voice recognition API that can be easily used by a person who wants to develop a predetermined voice recognition service operating in the interactive voice recognition client.
또한, 본 발명의 실시예에 따르면, 인식대상 음성에 대한 음성 인식에 이용되는 어휘풀이 일반 사전이 아닌 클라이언트에 의해 한정된 어휘집합이므로 빠르고 정확한 음성 인식이 가능한 효과가 있다. 통상적인 음성인식의 경우에는 인식에 사용되는 어휘가 방대하여 음성인식에 높은 프로세싱 파워가 요구될 뿐만 아니라, 서로 유사한 단어가 많으므로 인식율이 그만큼 떨어지게 된다. 하지만 본 실시예에 따르면, 상기 음성인식 서버는 클라이언트가 제공하는 한정된 어휘집합을 이용하여 음성인식을 수행하므로 빠르고 정확한 인식이 가능하다는 효과가 있다.
In addition, according to an embodiment of the present invention, since the lexical pool used for speech recognition of the speech to be recognized is a lexical set defined by the client rather than a general dictionary, there is an effect of enabling fast and accurate speech recognition. In the case of the general speech recognition, the vocabulary used for the recognition is enormous so that high processing power is required for the speech recognition, and the recognition rate decreases because there are many similar words. However, according to the present embodiment, the voice recognition server performs voice recognition using a limited set of vocabularies provided by a client, thereby enabling fast and accurate recognition.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시예에 따른 대화형 음성인식 시스템의 개략적인 구성 및 동작 방법을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 대화형 음성인식 서버의 구성을 나타내는 블록도이다.
도 3는 본 발명의 일 실시예에 따른 음성인식 클라이언트의 구성을 나타내는 블록도이다.
도 4a는 본 발명의 일 실시예에 따른 음성인식 클라이언트에서 동작하는 애플리케이션의 일 예를 나타내는 도면이다.
도 4b는 도 4a에 도시된 애플리케이션에 상응하며 어휘집합을 포함하는 대화 형식 정보의 일 예를 나타내는 도면이다.
도 4c는 본 발명의 일 실시예에 따른 음성인식 클라이언트가 도 4a에 도시된 애플리케이션의 입력 위젯을 모두 채운 후의 모습을 나타내는 도면이다.
도 5는 도 4a에 도시된 애플리케이션에 상응하며 어휘집합을 포함하지 않는 대화 형식 정보의 일 예를 나타내는 도면이다.
도 6은 대화 형식 정보가 도4b와 같은 경우 본 발명의 일 실시예에 따른 음성인식 클라이언트 및 서버가 동작하는 방법을 나타내는 도면이다.
도 7은 대화 형식 정보가 도5와 같은 경우 본 발명의 일 실시예에 따른 음성인식 클라이언트 및 서버가 동작하는 방법을 나타내는 도면이다.BRIEF DESCRIPTION OF THE DRAWINGS In order to better understand the drawings cited in the detailed description of the invention, a brief description of each drawing is provided.
1 is a view showing a schematic configuration and operation method of an interactive voice recognition system according to an embodiment of the present invention.
2 is a block diagram showing the configuration of an interactive voice recognition server according to an embodiment of the present invention.
3 is a block diagram showing the configuration of a voice recognition client according to an embodiment of the present invention.
4A is a diagram illustrating an example of an application operating in a voice recognition client according to an embodiment of the present invention.
4B is a diagram illustrating an example of conversational format information corresponding to the application illustrated in FIG. 4A and including a lexical set.
4C is a diagram illustrating a state after the voice recognition client fills all the input widgets of the application illustrated in FIG. 4A according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating an example of conversational format information that corresponds to the application illustrated in FIG. 4A and does not include a lexical set.
6 is a diagram illustrating a method of operating a voice recognition client and a server according to an embodiment of the present invention when the conversation type information is the same as that of FIG. 4B.
7 is a diagram illustrating a method of operating a voice recognition client and a server according to an embodiment of the present invention when the conversation type information is the same as that of FIG. 5.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 명세서에 있어서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, one or more other It is to be understood that the present invention does not exclude the possibility of the presence or the addition of features, numbers, steps, operations, components, parts, or a combination thereof.
또한, 본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다. 반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.Also, in this specification, when any one element 'transmits' data to another element, the element may transmit the data directly to the other element, or may be transmitted through at least one other element And may transmit the data to the other component. Conversely, when one element 'directly transmits' data to another element, it means that the data is transmitted to the other element without passing through another element in the element.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 중심으로 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.
도 1은 본 발명의 일 실시예에 따른 대화형 음성인식 시스템의 개략적인 구성 및 동작 방법을 나타내는 도면이다.1 is a view showing a schematic configuration and operation method of an interactive voice recognition system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 대화형 음성인식 시스템은 대화형 음성인식 서버(10) 및 대화형 음성인식 클라이언트(20)를 포함할 수 있다.Referring to FIG. 1, an interactive voice recognition system according to an embodiment of the present invention may include an interactive
상기 대화형 대화형 음성인식 서버(10)와 상기 대화형 음성인식 클라이언트(20)는 유/무선을 통해 연결되어, 소정의 정보를 송수신하며 본 발명의 기술적 사상을 달성할 수 있다.The interactive interactive
상기 대화형 음성인식 서버(10)는 상기 대화형 음성인식 클라이언트(20)로부터 순차적으로 전송되는 인식대상 음성에 대한 음성인식을 수행하고(도 1의 S2-1 내지 S2-n 및 S3-1 내지 S3-n 참조), 음성인식 수행 결과를 상기 음성인식 클라이언트에 전송(도 1의 S4 참조)하는 컴퓨팅 장치일 수 있다.The interactive
한편, 상기 대화형 음성인식 서버(10)는 음성인식을 수행하기 전 상기 대화형 음성인식 클라이언트(20)로부터 소정의 대화형식 정보를 수신할 수 있다(도 1의 S1 참조). 대화형식 정보는 상기 대화형 음성인식 서버(10)와 상기 대화형 음성인식 클라이언트(20) 간의 대화 구조에 관한 정보일 수 있다. 여기서, 대화 구조라 함은 음성인식 서버(10)가 음성인식 클라이언트(20)로 출력할 음성(예를 들면, 안내음성)과 상기 음성인식 클라이언트(20)가 상기 음성인식 서버(10)로 출력할 발화자의 음성으로 이루어지는 대화의 순서나 대화를 구성하는 음성의 내용이나 형식 등을 정의하기 위하여 구조화된 정보를 의미할 수 있다. 따라서, 대화 형식정보는, 예를 들어 도 5에 도시된 바와 같이, 음성인식 서버(10) 측에서 음성인식 클라이언트(20)를 통해 사용자에게 출력할 안내음성의 내용과 사용자가 발화하여 음성인식 서버(10) 측으로 전송될 인식대상 음성의 형식이 대화 순서에 따라 나열되어 상기 음성인식 서버(10)와 상기 음성인식 클라이언트(20) 간의 대화가 어떠한 순서와 어떠한 내용으로 전개되는지를 파악할 수 있는 정보일 수 있다. 따라서, 상기 대화형 음성인식 서버(10)는 상기 대화형식 정보를 이용하여 이후 사용자에게 출력할 안내음성과 사용자로부터 입력될 인식대상 음성을 포함하는 사용자와 서버간의 대화 구조를 파악할 수 있다.Meanwhile, the interactive
상기 대화형식 정보는 음성인식 클라이언트(10)에서 사용자에게 제공하는 서비스(또는 애플리케이션)에 적합하도록 상기 서비스(또는 애플리케이션)의 개발자 등에 의해 미리 설정될 수 있다. 즉, 본 발명의 일 실시예에 따르면, 개발자 등은 서버에 의해 미리 정해진 대화형식을 이용하는 대신, 상기 음성인식 서버(20)는 범용적으로 사용될 수 있는 대화형 음성인식의 개별 단위기능(예를 들면, 소정의 안내음성을 출력하거나 사용자가 발화한 한 단위의 단어나 문장을 음성인식 하는 등)을 API 등의 형태로 제공하고, 음성인식 클라이언트(10)에서 제공되는 서비스를 개발하고자 하는 개발자 등은 이를 이용하여 자신이 제공하고자 하는 서비스에 맞춰진 대화형식 정보를 구성할 수 있다.The conversation type information may be set in advance by a developer of the service (or application) or the like so as to be suitable for a service (or application) provided to the user by the
한편, 상기 대화형 음성인식 서버(10)는 소정의 데이터베이스(30)를 포함하거나 상기 데이터베이스(30)와 통신하여, 상기 대화형식 정보에 포함된 각종 데이터를 상기 데이터베이스(30)에 저장할 수 있다. 본 명세서에서 데이터베이스(DB)라 함은, 적어도 하나의 테이블로 구현될 수도 있으며, 상기 데이터베이스에 저장된 정보를 검색, 저장, 및 관리하기 위한 별도의 DBMS(Database Management System)을 더 포함하는 의미로 사용될 수도 있다. 또한, 링크드 리스트(linked-list), 트리(Tree), 관계형 DB의 형태 등 다양한 방식으로 구현될 수 있으며, 상기 데이터베이스(30)에 저장될 정보를 저장할 수 있는 모든 데이터 저장매체 및 데이터 구조를 포함하는 의미로 사용될 수 있다.The interactive
상기 대화형 음성인식 클라이언트(20)는 사용자의 음성을 입력 받아 소정의 음성인식 서비스를 제공하는 컴퓨터 프로그램을 구동하는 컴퓨팅 장치일 수 있다. 상기 대화형 음성인식 클라이언트(20)는 컴퓨터, 랩탑, 데스크탑, 타블렛 PC, PDA(Personal Digital Assistant)를 포함하는 컴퓨팅 장치일 수 있으며, 휴대 전화, 위성 전화, 무선 전화, SIP(Session Initiation Protocol), WLL(Wireless Local Loop) 스테이션, 스마트폰, 기타 무선 접속 기능을 갖는 핸드헬드 장치를 포함하는 무선 컴퓨팅 장치 또는 다른 무선 모뎀에 연결된 프로세싱 장치일 수도 있다.The interactive
도 2는 본 발명의 일 실시예에 따른 대화형 음성인식 서버(10)의 구성을 나타내는 블록도이다.2 is a block diagram showing the configuration of an interactive
도 2를 참조하면, 상기 대화형 음성인식 서버(10)는 정보수신모듈(110), 어휘풀결정모듈(120), 어휘트리 생성모듈(130), 음성수신모듈(140), 음성인식모듈(150), 결과전송모듈, TTS(Text-To-Speech)모듈(170) 및 저장모듈(180)을 포함할 수 있다.2, the interactive
상기 정보수신모듈(110)은 상기 대화형 음성인식 클라이언트(20)로부터 소정의 대화형식 정보를 수신할 수 있다.The
상기 대화형식 정보는 상기 대화형 음성인식 클라이언트(20)의 사용자가 상기 대화형 음성인식 클라이언트의 입력모듈(예를 들면 마이크로폰 등)을 통해 순차적으로 발화하는 적어도 하나의 인식대상 음성 각각에 상응하는 인식대상 음성 정보를 포함할 수 있다. 예를 들면, 상기 대화형 음성인식 클라이언트(20)에서 사용자가 복수의 입력 필드를 채워야 하는 소정의 애플리케이션(예를 들면, 주소록 애플리케이션, 스케줄 관리 애플리케이션 등)이 구동될 수 있는데, 상기 복수의 입력 필드를 순서대로 채우기 위하여, 사용자는 상기 복수의 입력 필드 각각에 상응하는 인식대상 음성을 순차적으로 발화할 수 있다. 그러면, 상기 음성인식 클라이언트(20)는 입력되는 사용자의 인식대상 음성을 차례로 상기 대화형 음성인식 서버(10)로 전송하여 상기 대화형 음성인식 서버(10)가 음성인식을 수행하도록 할 수 있는데, 상기 대화형식 정보는 상기 대화형 음성인식 서버(10)로 차례로 전송되는 인식대상 음성 각각에 상응하는 인식대상 음성 정보를 포함할 수 있다. 상기 인식대상 음성 정보는 항목안내 텍스트, 음성인식 결과 변수 및/또는 어휘풀식별정보 등을 포함할 수 있는데, 이에 대하여는 추후 상세히 설명하기로 한다.The conversation type information may be recognized by each user of the interactive
상기 저장모듈(180)은 상기 대화형식 정보 및/또는 상기 인식대상 음성 정보에 포함된 각종 정보를 데이터베이스(30)에 저장하거나 갱신할 수 있다.The
상기 음성수신모듈(140)은 상기 음성인식 클라이언트(20)가 전송하는 인식대상 음성을 수신할 수 있다.The
한편, 상기 음성인식모듈(150)은 상기 음성수신모듈(140)이 수신한 인식대상 음성에 대한 음성 인식을 수행할 수 있다. 일 실시예에서, 상기 음성인식모듈(150)은 상기 인식대상 음성의 종류와 무관하게 미리 정해진 어휘풀(pool)을 이용하여 음성인식을 수행할 수 있다.On the other hand, the
다른 실시예에서는 상기 음성인식모듈(150)은 각각의 인식대상 음성마다 그에 상응하는 어휘풀을 이용하여 음성인식을 수행할 수 있다. 이 경우, 상기 어휘풀 결정 모듈(120)이 각각의 인식대상 음성에 상응하는 어휘풀을 결정할 수 있다. 특히, 상기 어휘풀 결정 모듈(120)은 상기 대화형식 정보에 포함된 인식대상 음성 정보에 기초하여 상기 인식대상 음성 정보에 상응하는 인식대상 음성에 대한 음성인식을 수행하는데 이용되는 어휘풀(인식대상어휘풀)을 결정할 수 있다. 상기 대화형식 정보 또는 상기 인식대상 음성 정보에 포함된 정보에 따라 상기 대화형 음성인식 서버(10)가 상기 인식대상 어휘풀을 결정하는 방식도 다양할 수 있다. 상기 대화형식 정보 또는 상기 인식대상 음성 정보의 다양한 예시 및 그에 따른 인식대상 어휘풀 결정 방법에 대해서는 추후 상세히 설명하기로 한다.In another embodiment, the
한편, 일 실시예에서, 상기 대화형 음성인식 서버(10)는 상기 인식대상 음성을 음성 인식하는데 이용되는 인식대상 어휘풀에 대한 어휘트리(lexical tree)를 생성하는 어휘트리 생성모듈(130)을 포함할 수 있으며, 상기 음성인식모듈(150)은 상기 어휘트리 생성모듈(130)이 생성한 어휘트리를 이용하여 음성 인식을 수행할 수 있다. 또는 다른 일 실시예에서, 상기 음성인식 서버(10)는 모든 음성인식 요청에 대해 보편적으로 사용될 수 있는 어휘풀을 이용하여 상기 인식대상 음성에 대한 음성인식을 수행하고, 음성인식을 수행하는 과정에서 상기 인식대상 어휘풀에 포함된 어휘와 유사한 어휘를 인식하는 경우, 상기 인식대상어휘풀에 포함된 어휘를 우선적으로 이용하도록 구현될 수도 있다. 이외에도, 상기 대화형 음성인식 서버(10)는 음성인식을 수행함에 있어 널리 공지된 다양한 음성인식 기술을 이용할 수 있다. 본 발명의 기술적 특징 중 하나는 음성인식 서버(10)와 음성인식 클라이언트(20)가 소정의 대화형식 정보에 의해 정해진 방식대로 대화형 음성인식을 수행하는 방식에 관한 것이고 상기 대화형 음성인식 서버(10)가 이용하는 음성인식 기술에 의해 본 발명의 기술적 사상이 제한되는 것은 아니므로 본 발명의 요지를 명확히 설명하기 위하여 음성인식에 관한 공지 기술에 대한 구체적인 설명은 생략하기로 한다.On the other hand, in one embodiment, the interactive
상기 결과전송모듈(160)은 상기 음성인식모듈이 순차적으로 전송된 일련의 인식대상 음성에 대한 음성 인식을 수행하여 얻은 결과를 개별적으로 혹은 한꺼번에 통합하여 상기 대화형 음성인식 클라이언트(20)에 전송할 수 있다.The
한편, 상기 대화형식 정보 및/또는 상기 인식대상 음성 정보는 음성으로 변환될 변환 텍스트를 포함할 수 있는데, 상기 TTS모듈(170)은 이러한 변환 텍스트를 음성으로 변환하는 기능을 수행할 수 있다. 일 실시예에서, 상기 변환 텍스트는 상기 인식대상 음성 정보에 포함될 수 있다. 상기 변환 텍스트는 상기 인식대상 음성 정보에 상응하는 음성 정보를 수신하기 전에 사용자가 어떤 음성 정보를 입력해야 하는지를 안내하기 위한 항목안내 텍스트일 수 있다. 다른 실시예에서, 상기 변환 텍스트는 상기 대화형식 정보에 포함될 수 있으며, 사용자가 앞으로 입력하게 될 음성이 사용될 서비스 등에 관한 안내 텍스트일 수 있다.Meanwhile, the conversation type information and / or the recognition target voice information may include converted text to be converted into speech, and the
도 3은 본 발명의 일 실시예에 따른 대화형 음성인식 클라이언트(20)의 구성을 나타내는 블록도이다.3 is a block diagram showing the configuration of the interactive
도 3을 참조하면, 상기 음성인식 클라이언트는 입력모듈(200), 정보전송모듈(210), 음성전송모듈(220), 결과 수신모듈(230)을 포함할 수 있으며, 구현 예에 따라서는 TTS모듈(240)을 더 포함할 수 있다.Referring to FIG. 3, the voice recognition client may include an
상기 정보전송모듈(210)은 상기 대화형식 정보를 상기 대화형 음성인식 서버(10)에 전송할 수 있다. 상기 입력모듈(200)은 사용자가 발화하는 음성을 입력 받기 위한 소정의 장치일 수 있다. 예를 들어 상기 입력모듈(200)은 적어도 하나의 마이크로폰으로 구성될 수 있다. 상기 음성전송모듈(220)은 상기 입력모듈에 의해 입력된 사용자 음성을 상기 대화형 음성인식 서버(10)로 전송하여 음성인식을 수행하도록 할 수 있다. 상기 결과수신모듈(230)은 상기 대화형 음성인식 서버(10)로부터 수행된 상기 사용자의 음성에 대한 음성인식 결과를 수신할 수 있다. 한편, 상기 대화형 음성인식 클라이언트(20)는 상기 음성인식 결과를 사용자에게 출력하거나, 상기 음성인식 결과에 의해 제어되는 소정의 제어동작을 수행하는 제어모듈(미도시)를 더 포함할 수 있다.The
한편, 상술한 항목안내 텍스트나 서비스 등에 관한 안내 텍스트와 같은 변환 텍스트의 음성 변환이 반드시 서버 측에서 수행될 필요는 없다. 즉, 상기 대화형 음성인식 클라이언트(20)가 상기 변환 텍스트의 음성 변환을 수행하고 변환된 음성을 사용자에게 출력할 수도 있는데, 이러한 실시예에서 상기 대화형 음성인식 클라이언트(20)는 TTS모듈(240)을 더 포함할 수 있다.On the other hand, voice conversion of the converted text, such as the guide text for the item guide text or service described above, is not necessarily performed on the server side. That is, the interactive
본 발명의 실시예에 따라서는, 상술한 구성요소들 중 일부 구성요소는 반드시 본 발명의 구현에 필수적으로 필요한 구성요소에 해당하지 않을 수도 있으며, 또한 실시예에 따라 상기 대화형 음성인식 서버(10) 및/또는 상기 대화형 음성인식 클라이언트(20)는 이보다 더 많은 구성요소를 포함할 수도 있음은 물론이다.According to an embodiment of the present invention, some of the above components may not necessarily correspond to the components necessary for the implementation of the present invention, and also according to the embodiment, the interactive
상기 대화형 음성인식 서버(10) 및/또는 상기 대화형 음성인식 클라이언트(20)는 본 발명의 기술적 사상을 구현하기 위해 필요한 하드웨어 리소스(resource) 및/또는 소프트웨어를 구비할 수 있으며, 반드시 하나의 물리적인 구성요소를 의미하거나 하나의 장치를 의미하는 것은 아니다. 즉, 상기 대화형 음성인식 서버(10) 및/또는 상기 대화형 음성인식 클라이언트(20)는 본 발명의 기술적 사상을 구현하기 위해 구비되는 하드웨어 및/또는 소프트웨어의 논리적인 결합을 의미할 수 있으며, 필요한 경우에는 서로 이격된 장치에 설치되어 각각의 기능을 수행함으로써 본 발명의 기술적 사상을 구현하기 위한 논리적인 구성들의 집합으로 구현될 수도 있다. 또한, 상기 대화형 음성인식 서버(10) 및 상기 대화형 음성인식 클라이언트(20)은 본 발명의 기술적 사상을 구현하기 위한 각각의 기능 또는 역할별로 별도로 구현되는 구성들의 집합을 의미할 수도 있다. 예를 들어, 상기 대화형 음성인식 서버(10)의 경우 정보수신모듈(110), 어휘풀결정모듈(120), 어휘트리 생성모듈(130), 음성수신모듈(140), 음성인식모듈(150), 결과전송모듈, TTS모듈(170) 및 저장모듈(180)은 서로 다른 물리적 장치에 위치할 수도 있고, 동일한 물리적 장치에 위치할 수도 있다. 또한, 구현 예에 따라서는 정보수신모듈(110), 어휘풀결정모듈(120), 어휘트리 생성모듈(130), 음성수신모듈(140), 음성인식모듈(150), 결과전송모듈(160), TTS모듈(170) 및 저장모듈(180) 등 각각의 모듈을 구성하는 소프트웨어 및/또는 하드웨어 역시 서로 다른 물리적 장치에 위치하고, 서로 다른 물리적 장치에 위치한 구성들이 서로 유기적으로 결합되어 각각의 모듈들이 수행하는 기능을 실현할 수도 있다.The interactive
또한, 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 통상의 기술자에게는 용이하게 추론될 수 있다.In addition, the term "module" in the present specification may mean a functional and structural combination of hardware for performing the technical idea of the present invention and software for driving the hardware. For example, the module may mean a logical unit of a predetermined code and a hardware resource for performing the predetermined code, and means a code that is not necessarily physically connected or does not mean a kind of hardware. It can be easily deduced by the technician.
도 4a는 본 발명의 일 실시예에 따른 대화형 음성인식 클라이언트(20)에서 제공하는 스케쥴 등록 서비스의 UI를 나타내는 도면이다. 도 4a에 도시된 바와 같은 상기 스케쥴 등록 서비스는 상기 대화형 음성인식 클라이언트(20)에서 동작하는 애플리케이션에 의해 제공될 수 있다. 도 4a를 참조하면, 사용자는 새로운 스케쥴을 등록하기 위하여, 날짜 필드(a21), 시간 필드(a22), 장소 필드(a23) 및 스케쥴 내용 필드(a24)를 음성으로 입력할 수 있다.4A is a diagram illustrating a UI of a schedule registration service provided by the interactive
도 4b는 도 4a에 도시된 스케쥴 등록 서비스에 상응하는 대화형식 정보의 일 예를 나타내는 도면이다. 도 4b에 도시된 대화형식 정보(DF1)은 스케쥴 서비스임을 나타내는 서비스 안내 텍스트 섹션(OP1), 도 4a데 도시된 스케쥴 등록 서비스의 각 입력 필드에 상응하는 인식대상 음성 정보(SI11 내지 SI14)를 포함하는 섹션(SF1), 음성 인식을 모두 수행한 후에 사용자에게 출력될 종료 안내 텍스트 섹션(CL1) 및 "월" 입력 필드에 상응하는 인식 대상 음성에 대한 음성 인식에 이용될 단어 집합(WS)를 포함할 수 있다. 여기서, 서비스 안내 텍스트 섹션(OP1), 종료 안내 텍스트 섹션(CL1)은, 구현예에 따라서는, 대화형식 정보에 반드시 필수적으로 포함되어야 하는 항목은 아니다. 또한, 상기 대화형식 정보에 포함된 모든 인식 대상 음성에 상응하는 단어 집합이 상기 대화형식 정보에 포함될 필요는 없으며, 단어 집합을 하나도 포함하지 않는 대화형식 정보도 있을 수 있다(도 5 참조).FIG. 4B is a diagram illustrating an example of conversation type information corresponding to the schedule registration service illustrated in FIG. 4A. The dialogue format information DF1 shown in FIG. 4B includes a service guide text section OP1 indicating that the schedule service is a schedule service, and voice recognition information SI11 to SI14 corresponding to each input field of the schedule registration service shown in FIG. 4A. Section SF1, an end guide text section CL1 to be output to the user after performing all speech recognition, and a word set WS to be used for speech recognition of the speech to be recognized corresponding to the "month" input field. can do. Here, the service guide text section OP1 and the end guide text section CL1 are not necessarily items included in the dialogue format information, depending on the embodiment. In addition, the word set corresponding to all the recognition target voices included in the conversation type information need not be included in the conversation type information, and there may be conversation type information that does not include any word set (see FIG. 5).
한편, 서비스 안내 텍스트 섹션(OP1), 종료 안내 텍스트 섹션(CL1), 인식대상 음성 정보(SI11 내지 SI14)의 섹션(SF1)으로 구성되는 한 셋트의 대화는 소정의 구분 구문(도 4b의 예에서는 "RecognitionType:Dialog")에 의해 구분될 수 있으며, 각각의 어휘집합도 그에 상응하는 구분 구문(도 4b의 예에서는 "RecognitionType:Month")에 의해 구분될 수 있다. 또한, 서비스 안내 텍스트 섹션(OP1), 종료 안내 텍스트 섹션(CL1) 및 인식대상 음성 정보(SI11 내지 SI14)를 포함하는 섹션(SF1)도 각각 [OPENING], [CLOSING] 및 [SLOT-FILLING]과 같은 구분 기호에 의해 구분될 수 있다. 상기 대화형 음성인식 서버(10)는 이와 같은 구분 구문이나 구분 기호를 이용하여 상기 대화형식 정보를 분석(파싱)하고, 대화 구조를 파악하여 그에 상응하는 행동(텍스트-음성 변환이나 음성 인식)을 취할 수 있다.On the other hand, a set of conversations composed of the service guide text section OP1, the end guide text section CL1, and the section SF1 of the voice information SI11 to SI14 to be recognized may have a predetermined division syntax (in the example of FIG. 4B). "RecognitionType: Dialog"), and each lexicon may also be distinguished by a corresponding syntax ("RecognitionType: Month" in the example of FIG. 4B). In addition, the section SF1 including the service guidance text section OP1, the termination guidance text section CL1, and the recognition target voice information SI11 to SI14 is also referred to as [OPENING], [CLOSING] and [SLOT-FILLING], respectively. Can be separated by the same delimiter. The interactive
한편, 인식대상 음성 정보(SI11 내지 SI14)는 각각 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 음성 인식 결과가 저장될 결과 변수 및/또는 상기 인식대상 음성에 대한 음성인식에 이용될 어휘풀의 식별정보를 포함할 수 있다. 예를 들면, "월" 입력 필드에 상응하는 인식대상 음성 정보는 어휘풀 식별정보 Month 및 결과 변수 <month>를 포함할 수 있다.On the other hand, the recognition target voice information SI11 to SI14 is a result variable in which the voice recognition result of the recognition target voice corresponding to the recognition target voice information is stored, and / or the lexical pool to be used for the voice recognition for the recognition target voice. It may include identification information. For example, the recognition target voice information corresponding to the “month” input field may include the lexical identification information Month and the result variable <month>.
상기 대화형식 정보(DF1)는 어휘풀식별정보 "Month"에 의해 식별되는 어휘집합("일월", "이월", …, "십이월"; WS)을 포함할 수 있으며, 이 경우, 상기 대화형식 정보(DF1)를 수신한 상기 대화형 음성인식 서버(10)는 상기 어휘집합(WS)를 이용하여 "월" 에 상응하는 인식 대상 음성에 대한 음성 인식을 수행할 수 있다.The conversation format information DF1 may include a lexical set ("January", "February", ..., "Twelve month"; WS) identified by the lexical pool identification information "Month". In this case, the conversation format The interactive
본 발명에서, 대화형식 정보는 도 4b와 같은 스크립트의 형태일 수도 있지만, 반드시 이에 한정되는 것은 아니다. 예를 들어, 상기 음성인식 클라이언트(20)는 본 발명의 기술적 사상을 달성하기 위한 소정의 정보를 인코딩하고 인코딩된 정보를 상기 대화형식 정보로서 상기 음성인식 서버(10)에 전송할 수도 있다.In the present invention, the dialogue format information may be in the form of a script as shown in FIG. 4B, but is not necessarily limited thereto. For example, the
도 4c는 본 발명의 일 실시예에 따른 음성인식 클라이언트(20)가 상기 음성인식 서버(10)로부터 음성 인식 결과를 수신하여, 도 4a에 도시된 애플리케이션의 입력 필드를 모두 채운 후의 모습을 나타내는 도면이다.4C is a diagram illustrating a state in which the
도 4a에 도시된 스케쥴 등록 서비스는 텍스트 입력 필드만을 포함하고 있으며, 서비스에 따라서는 텍스트 입력 필드 이외에도 라디오 박스, 체크박스, 확인 버튼, 리스트 박스 등의 다양한 형태의 입력 필드도 음성으로 입력이 가능하며, 상기 서비스에 상응하는 대화형식 정보도 있을 수 있음을 본 발명이 속하는 분야에서 통상의 지식을 가진 자는 용이하게 이해할 수 있을 것이다. 예를 들어, 상기 음성인식 클라이언트(20)가 제공하는 서비스의 UI가 "소설", "시집", "자기계발서", "전공서적" 중 어느 하나를 선택해야 하는 리스트 박스를 포함한다고 하면, 상기 서비스에 상응하는 대화형식 정보는 The schedule registration service illustrated in FIG. 4A includes only a text input field, and in addition to the text input field, various types of input fields such as a radio box, a check box, a confirmation button, and a list box may be input by voice. Those skilled in the art can readily understand that there may be conversational information corresponding to the service. For example, if the UI of the service provided by the
『Speak: 소설, 시집, 자기계발서, 전공서적 중 어느 하나를 선택하세요.『Speak: Please choose one among novels, poems, self-help books, major books.
Book: <book>』Book: <book>
와 같은 형태의 인식대상 음성 정보를 포함할 수 있다.It may include the recognition target voice information of the form.
한편, 대화 형식 정보는 도 5에 도시된 바와 같이 어휘집합을 하나도 포함하지 않을 수 있다. 도 5에 도시된 대화 형식 정보는 어휘집합을 하나도 포함하지 않는 것을 제외하면 도 4a에 도시된 것과 동일하므로 상세한 설명은 생략하기로 한다.Meanwhile, the conversation type information may not include any vocabulary set as shown in FIG. 5. The conversational form information shown in FIG. 5 is the same as that shown in FIG. 4A except that it does not include any vocabulary sets, and thus detailed description thereof will be omitted.
도 6은 대화 형식 정보가 도4b와 같은 경우 본 발명의 일 실시예에 따른 음성인식 클라이언트 및 서버가 동작하는 방법을 나타내는 도면이다.6 is a diagram illustrating a method of operating a voice recognition client and a server according to an embodiment of the present invention when the conversation type information is the same as that of FIG. 4B.
도 6을 참조하면, 상기 대화형 음성인식 클라이언트(20)의 정보전송모듈(210)이 전송한 대화형식 정보 (DF1)을 상기 대화형 음성인식 서버(10)의 정보수신모듈(110)이 수신하면(S61), 상기 음성인식 서버(10)의 파싱모듈(미도시)이 상기 대화형식 정보(DF1)을 분석(파싱)하여 서비스 안내 텍스트 섹션(OP1), 종료 안내 텍스트 섹션(CL1) 및 인식대상 음성 정보(SI11 내지 SI15), 어휘집합(WS)을 추출할 수 있다(S62).Referring to FIG. 6, the
이후, 상기 대화형 음성인식 서버(10)의 어휘풀 결정모듈(120)은 상기 어휘집합(WS)가 어휘풀식별정보 "Month"에 의해 식별된다고 판단하고 상기 어휘집합(WS)를 "Month"를 포함하는 인식대상 음성 정보(SI11)에 상응하는 인식대상 음성의 인식대상어휘풀로 설정할 수 있다(S63). Thereafter, the lexical
실시예에 따라서, 상기 대화형 음성인식 서버(10)의 저장 모듈(120)은 상기 어휘집합(WS)가 어휘풀식별정보 "Month"에 의해 식별되도록 데이터베이스(30)에 저장할 수도 있다(S64).According to an embodiment, the
한편, 상기 어휘풀 결정모듈(120)은 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보(DF1)에 포함되어 있지 않은 경우(예를 들면, "Date", "Time", "Place", "Memo")에는, 상기 데이터베이스(30)에서 어휘풀식별정보에 의해 식별되는 어휘집합이 존재하는지를 검사하고 존재하는 경우 데이터베이스에 저장된 어휘집합을 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상 어휘풀로 결정할 수 있다. 다만, 이에 한정되는 것은 아니며, 상기 어휘풀 결정모듈(120)은 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보(DF1)에 포함되어 있지 않은 경우 일반 어휘 사전을 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상 어휘풀로 결정할 수도 있다.On the other hand, the lexical
상기 대화형식 정보(DF1)가 서비스 안내 텍스트 섹션(OP1)을 포함하고 있으므로, 상기 대화형 음성인식 서버(10)의 TTS모듈(170)은 "새로운 스케쥴을 등록합니다"를 음성으로 변환하고(S65), 상기 대화형 음성인식 클라이언트(20)에 전송할 수 있다(S66). 그러면, 상기 대화형 음성인식 클라이언트(20)는 소정의 출력모듈(예를 들면, 스피커, 이어폰 등)을 통해 이를 출력할 수 있다.Since the dialogue format information DF1 includes the service guide text section OP1, the
이후, 대화형식 정보(DF1)에 포함된 "월", "일", "시간", "장소", "스케쥴 내용"에 상응하는 텍스트-음성 변환 및 음성 인식 과정이 순차적으로 수행될 수 있다.Subsequently, text-to-speech conversion and speech recognition processes corresponding to "month", "day", "time", "place", and "schedule content" included in the dialogue format information DF1 may be sequentially performed.
예를 들면, 상기 대화형 음성인식 서버(10)의 TTS모듈(170)은 "월을 말하세요"를 음성으로 변환하고(S67), 상기 대화형 음성인식 클라이언트(20)에 전송할 수 있다(S68). 그러면, 상기 대화형 음성인식 클라이언트(20)는 소정의 출력모듈(예를 들면, 스피커, 이어폰 등)을 통해 이를 출력할 수 있다. 이후, 사용자로부터 "월" 입력 필드에 상응하는 음성 "이월"이 입력되면, 상기 음성인식 클라이언트(20)의 음성전송모듈(220)은 음성 "이월"을 상기 음성인식 서버(10)의 음성수신 모듈(140)로 전송하고(S69), 상기 음성인식 서버(10)의 음성인식모듈(150)은 음성 "이월"에 대한 음성 인식을 수행할 수 있다. 이때, "월" 입력 필드에 상응하는 인식대상 음성의 음성인식에 사용될 어휘집합(WS)이 상기 대화형식 정보에 포함되어 있으므로, 음성인식모듈(150)은 상기 어휘집합(WS)를 이용하여 "이월"에 대한 음성인식을 수행하고 "월" 입력 필드에 상응하는 결과 변수 <month>에 음성 인식 결과를 저장할 수 있다(S71).For example, the
한편, 구현 예에 따라서, 상기 대화형 음성인식 서버(10)는 사용자가 발화한 음성의 인식 신뢰도가 소정의 임계치 이하인 경우, 사용자가 음성을 재입력하도록 할 수 있다. 예를 들면, 음성인식모듈(150) 수행한 음성 인식 결과의 인식 신뢰도가 소정의 임계치 이하인 경우, 상기 대화형 음성인식 서버(10)는 TTS모듈(170)을 통하여 소정의 재입력 안내 메시지(예를 들면, "다시 입력해주세요")를 상기 음성인식 클라이언트에 전송할 수 있다. 상기 재입력 안내 메시지는 상기 대화형 음성인식 서버(10)에 미리 설정되어 있을 수도 있고, 상기 대화형식 정보에 포함되어 있을 수도 있다. 한편, 구현 예에 따라서는, 상기 음성 재입력 메시지의 생성 및 출력을 상기 음성인식 클라이언트 측에서 수행할 수도 있다. 이후, 상기 음성 수신모듈(140)은 사용자가 다시 발화한 인식대상 음성을 수신하고, 음성인식모듈(150)은 이에 대한 음성인식을 다시 수행할 수 있다.According to an embodiment, the interactive
이후, 상기 대화형 음성인식 서버(10)는 대화형식 정보(DF1)에 포함된 "일", "시간", "장소", "스케쥴 내용"에 각각 대해서도 항목안내 텍스트를 음성으로 변환하여 상기 대화형 음성인식 클라이언트(20)에 전송하고, 상기 대화형 음성인식 클라이언트(20)로부터 사용자의 인식 대상 음성(예를 들면, "일"의 경우에는 "십이일", "시간"의 경우에는 "아홉시", "장소"의 경우에는 "홍대입구역", "내용"의 경우에는 "미팅")을 입력 받아 음성 인식을 할 수 있다. 그런데, 상기 대화형식 정보(DF1)에는 "일", "시간", "장소", "스케쥴 내용"에 대한 어휘 집합이 포함되어 있지 않으므로, 즉, Date, Time, Place, Memo에 의해 식별되는 어휘집합이 상기 대화형식 정보(DF1)에는 포함되어 있지 않으므로 상기 대화형 음성인식 서버(10)는 데이터베이스(30)에 저장된 일반 사전을 이용하거나 Date, Time, Place, Memo에 의해 식별되는 어휘풀이 상기 데이터베이스(30)에 저장되어 있는지 검사하고, 저장되어 있는 어휘풀을 이용하여 음성인식을 수행할 수 있다. 또한, 상기 대화형 음성인식 서버(10)는 음성 인식 결과를 각각 <date>, <time>, <place>, <memo>에 저장할 수 있다(S72 내지 S74 참조).Thereafter, the interactive
이후, 대화형식 정보(DF1)에 포함된 인식대상 음성 정보(SI11 내지 SI14)에 상응하는 모든 인식대상 음성에 대하여 음성인식이 수행되었으므로, 상기 대화형 음성인식 서버(10)의 결과전송모듈(160)은 음성인식 결과(<month=2월>, <date=12일>, <time=오전9시>, <place=홍대입구역>, <memo=미팅>)을 상기 대화형 음성인식 클라이언트(20)에 전송할 수 있다.Thereafter, since voice recognition is performed on all recognition target voices corresponding to the recognition target voice information SI11 to SI14 included in the dialogue format information DF1, the
또한, 대화형식 정보(DF1)에 결과 안내 텍스트 섹션(CL1)이 있으므로 상기 TTS모듈은 결과 안내 텍스트 (<month>월 <date>일, <time>에, <place>에서 <memo > 스케쥴이 등록되었습니다)에 기초하여 음성 "2월 12일 오전9시 홍대입구역에서 미팅 스케쥴이 동록되었습니다"를 생성하고, 상기 음성인식 클라이언트(20)에 전송할 수 있다.In addition, since there is a result guidance text section CL1 in the dialogue format information DF1, the TTS module registers a result guidance text (<month>, <date>, <time>, <time>, and <memo> schedule in <place>). The meeting schedule was registered in the Hongik University area at 9 am on February 12, and transmitted to the
도 7은 대화 형식 정보가 도5와 같은 경우 본 발명의 일 실시예에 따른 음성인식 클라이언트 및 서버가 동작하는 방법을 나타내는 도면이다.7 is a diagram illustrating a method of operating a voice recognition client and a server according to an embodiment of the present invention when the conversation type information is the same as that of FIG. 5.
상기 대화형 음성인식 클라이언트(20)의 정보전송모듈(210)이 전송한 대화형식 정보 (DF2)을 상기 대화형 음성인식 서버(10)의 정보수신모듈(110)이 수신하면(S81), 상기 음성인식 서버(10)의 파싱모듈(미도시)이 상기 대화형식 정보(DF1)을 분석(파싱)하여 서비스 안내 텍스트 섹션(OP1), 종료 안내 텍스트 섹션(CL1) 및 인식대상 음성 정보(SI21 내지 SI25)를 추출할 수 있다(S82).When the
이후, 상기 대화형 음성인식 서버(10)의 어휘풀 결정모듈(120)은 데이터베이스(30)에 저장되었던(도 6의 S64 참조) 어휘집합(WS)가 어휘풀식별정보"Month"에 의해 식별된다고 판단하고(S84), 상기 어휘집합(WS)를 "Month"를 포함하는 인식대상 음성 정보(SI21)에 상응하는 인식대상 음성의 인식대상어휘풀로 설정할 수 있다(S63).Thereafter, the lexical
나머지 Date, Time, Place, Memo의 경우에는 그에 의해 식별되는 어휘집합이 데이터베이스에 존재하는 경우에는 데이터베이스에 저장된 어휘집합이 인식대상어휘풀로 설정되며, 그렇지 않은 경우에는 일반 사전이 인식대상어휘풀로 설정될 수 있다For the remaining Date, Time, Place, and Memo, if the lexical set identified by it exists in the database, the lexical set stored in the database is set as the target lexical pool. Otherwise, the general dictionary is converted into the target lexical pool. Can be set
이후 대화형식 정보(DF1)에 포함된 "월", "일", "시간", "장소", "스케쥴 내용"에 상응하는 텍스트-음성 변환 및 음성 인식 과정은 도6에서 설명한 바와 유사하므로 상세한 설명은 생략한다.Since the text-to-speech conversion and speech recognition processes corresponding to "month", "day", "time", "place", and "schedule content" included in the dialogue format information DF1 are similar to those described with reference to FIG. Description is omitted.
본 발명의 실시예에 따르면 대화형 음성인식에 사용될 대화형식 정보는 상기 대화형 음성인식 클라이언트(20)에 의해 생성되고 상기 대화형 음성인식 서버(20)는 클라이언트(10)가 지정한 대화구조에 따라 음성인식을 수행한다. 따라서, 본 실시예에 따르면, 상기 음성인식 클라이언트(10)는 자신이 사용자에게 제공하는 서비스에 특화된 대화구조를 지정하여 상기 대화형 음성인식 서버(10) 음성인식을 수행하도록 함으로써, 상기 대화형 음성인식 클라이언트(20)의 서비스에 부합하는 음성인식 결과를 얻을 수 있는 효과가 있다. 즉, 본 발명의 실시예에 따르면, 상기 대화형 음성인식 클라이언트(20)에서 동작하는 소정의 음성인식 서비스를 개발하고자 하는 자가 용이하게 이용할 수 있는 음성인식 API를 제공할 수 있다.According to an embodiment of the present invention, conversational format information to be used for interactive speech recognition is generated by the interactive
또한, 본 발명의 실시예에 따르면, 인식대상 음성에 대한 음성 인식에 이용되는 어휘풀이 일반 사전이 아닌 클라이언트(20)에 의해 한정된 어휘집합이므로 빠르고 정확한 음성 인식이 가능한 효과가 있다. 통상적인 음성인식의 경우에는 인식에 사용되는 어휘가 방대하여 음성인식에 높은 프로세싱 파워가 요구될 뿐만 아니라, 서로 유사한 단어가 많으므로 인식율이 그만큼 떨어지게 된다. 일반적으로 음성인식의 어려움은 음성인식을 위해 탐색해야 하는 어휘집합의 크기에 따라 대수적(logarithmic)으로 증가한다고 알려져 있다. 하지만 본 실시예에 따르면, 상기 음성인식 모듈(150)은 클라이언트가 제공하는 한정된 어휘집합을 이용하여 음성인식을 수행하므로 빠르고 정확한 인식이 가능하다는 효과가 있다.In addition, according to an embodiment of the present invention, since the lexical pool used for speech recognition of the speech to be recognized is a lexical set defined by the
또한, 본 발명의 일 실시예에 따른 대화형 음성인식 방법을 이용하면, 음성인식 클라이언트(20)의 사용자는 입력해야 하는 필드를 눈으로 확인할 필요 없이, 입력해야 할 필드에 대한 정보를 듣고 음성으로 해당 필드에 값을 입력할 수 있다. 따라서, 본 발명의 일 실시예에 따른 대화형 음성인식 방법은 특히 시각 장애인을 위한 서비스(또는 애플리케이션)에서 유용하게 이용될 수 있다.In addition, when using the interactive voice recognition method according to an embodiment of the present invention, the user of the
한편, 본 발명의 실시예에 따른 대화형 음성인식 방법은 컴퓨터가 읽을 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.On the other hand, the interactive speech recognition method according to an embodiment of the present invention may be implemented in the form of computer-readable program instructions and stored in a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.
기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the recording medium may be those specially designed and constructed for the present invention, or may be known and available to those skilled in the software art.
컴퓨터로 읽을 수 있는 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, floppy disks, and the like. Included are hardware devices specifically configured to store and execute the same magneto-optical media and program instructions such as ROM, RAM, flash memory, and the like. In addition, the above-described medium may be a transmission medium such as an optical or metal wire, a waveguide, or the like including a carrier wave for transmitting a signal specifying a program command, a data structure, and the like. The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.
프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Examples of program instructions include machine language code such as those produced by a compiler, as well as devices for processing information electronically using an interpreter or the like, for example, a high-level language code that can be executed by a computer.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다.The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be.
그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성요소들도 결합된 형태로 실시될 수 있다.It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타나며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
It is intended that the present invention covers the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. .
Claims (23)
(b) 상기 음성인식 서버가 상기 대화형식 정보에 기초하여 상기 클라이언트로부터 상기 적어도 하나의 인식대상 음성 각각을 수신하고 음성 인식을 수행하는 단계; 및
(c) 상기 음성인식 서버가 상기 적어도 하나의 인식대상 음성 각각에 대한 음성인식 결과를 상기 클라이언트로 전송하는 단계를 포함하는 대화형 음성인식 방법.
(a) receiving, by a speech recognition server, conversational form information, which is information on a conversation structure between the speech recognition server and the client, from the client, wherein the conversational form information is to be spoken sequentially by a user; Including recognition object voice information corresponding to each voice;
(b) receiving, by the voice recognition server, each of the at least one voice to be recognized from the client based on the conversation type information and performing voice recognition; And
(c) the voice recognition server transmitting a voice recognition result for each of the at least one voice to be recognized to the client.
상기 인식대상 음성 정보 각각은 항목안내 텍스트를 포함하며,
상기 (b) 단계는,
상기 음성인식 서버가, 상기 적어도 하나의 인식대상 음성 각각에 대하여 순차적으로, 상기 인식대상 음성에 상응하는 상기 인식대상 음성 정보에 포함된 항목안내 텍스트를 음성 변환하여 상기 클라이언트에 전송하고 상기 클라이언트로부터 상기 인식대상 음성을 수신하는 단계를 포함하는 대화형 음성인식 방법.
The method of claim 1,
Each of the recognition target voice information includes an item guide text,
The step (b)
The voice recognition server sequentially converts the item guide text included in the recognition target voice information corresponding to the recognition target voice to the client by sequentially converting each of the at least one recognition target voice to the client. Interactive voice recognition method comprising the step of receiving a voice to be recognized.
상기 적어도 하나의 인식대상 음성 정보 각각은 음성인식 결과 변수를 포함하며,
상기 (c) 단계는,
상기 음성인식 서버가, 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성을 음성 인식한 결과를 상기 인식대상 음성에 상응하는 음성인식 결과 변수에 저장하여 상기 클라이언트로 전송하는 단계를 포함하는 대화형 음성인식 방법.
The method of claim 1,
Each of the at least one recognition target voice information includes a voice recognition result variable,
The step (c)
The voice recognition server, for each of the at least one recognition target voice, storing the result of the voice recognition of the recognition target voice in a voice recognition result variable corresponding to the recognition target voice and transmitting to the client; Interactive voice recognition method.
상기 대화형식 정보는, 상기 적어도 하나의 인식대상 음성 정보에 포함된 음성인식 결과 변수를 포함하는 결과안내 텍스트를 더 포함하며,
상기 대화형 음성인식 방법은,
상기 결과안내 텍스트에 기초하여 결과안내 음성을 생성하고, 생성된 상기 결과안내 음성을 상기 클라이언트에 전송하는 단계를 더 포함하는 대화형 음성인식 방법.
The method of claim 3,
The conversation type information further includes a result guide text including a voice recognition result variable included in the at least one recognition target voice information.
The interactive voice recognition method,
Generating a result guide voice based on the result guide text, and transmitting the generated result guide voice to the client.
상기 대화형 음성인식 방법은,
(d) 상기 음성인식 서버가, 상기 (b) 단계 이전에, 상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 기초하여 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀을 결정하는 단계를 더 포함하며,
상기 (b) 단계는,
상기 음성인식 서버가, 수신한 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성의 인식대상어휘풀을 이용하여 음성인식을 수행하는 단계를 포함하는 대화형 음성인식 방법.
The method of claim 1,
The interactive voice recognition method,
(d) the speech recognition server, before the step (b), for each of the recognition target voice information, based on the recognition target voice information, the recognition target vocabulary of the recognition target voice corresponding to the recognition target voice information; Further comprising determining,
The step (b)
And performing, by the speech recognition server, speech recognition for each of the received at least one speech recognition target voice using the speech recognition lexicon of the speech recognition speech.
상기 적어도 하나의 인식대상 음성 정보 각각은, 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀을 식별하기 위한 어휘풀식별정보를 포함하며,
상기 대화형식 정보는, 적어도 하나의 어휘집합을 더 포함하며,
상기 적어도 하나의 어휘집합 각각은, 상기 어휘풀식별정보 중 어느 하나에 의해 식별되는 대화형 음성인식 방법.
The method of claim 5,
Each of the at least one recognition target voice information includes lexical pool identification information for identifying a recognition target lexicon of the recognition target voice corresponding to the recognition target voice information,
The conversational form information further includes at least one vocabulary set.
And each of the at least one lexical set is identified by any one of the lexical pool identification information.
상기 (d) 단계는,
상기 음성인식 서버가, 상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보에 포함된 경우 상기 어휘집합을 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀로 결정하는 단계를 더 포함하는 대화형 음성인식 방법.
The method according to claim 6,
The step (d)
When the speech recognition server includes the lexical set identified by the lexical pool identification information included in the recognition target speech information for each of the recognition target speech information, the speech set includes the lexicon. And determining the recognition target lexicon of the recognition target speech corresponding to the information.
상기 음성인식 방법은,
상기 음성인식 서버가, 상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보에 포함된 경우 상기 어휘집합을 데이터베이스에 저장하는 단계를 더 포함하며,
상기 (d) 단계는,
상기 음성인식 서버가, 상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보에 포함되지 않은 경우 상기 데이터베이스에 저장된 어휘집합 중 상기 어휘풀식별정보에 의해 식별되는 어휘집합을 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀로 결정하는 단계를 포함하는 대화형 음성인식 방법.
The method according to claim 6,
The voice recognition method,
The speech recognition server stores the lexical set in the database when the lexical set identified by the lexical pool identification information included in the recognition target voice information is included in the conversation type information for each of the recognition target voice information. More steps,
The step (d)
When the speech recognition server does not include the lexical set identified by the lexical pool identification information included in the recognition target speech information, for each of the recognition target speech information, in the conversation type information. And determining the lexical set identified by the lexical pool identification information as a recognition target lexicon of the recognition target speech corresponding to the recognition target speech information.
(b) 상기 음성인식 클라이언트가 상기 대화형식 정보에 기초하여 상기 적어도 하나의 인식대상 음성 각각을 순차적으로 상기 음성인식 서버로 전송하는 단계; 및
(c) 상기 음성인식 클라이언트가 상기 음성인식 서버로부터 상기 적어도 하나의 인식대상 음성 각각에 대한 음성인식 결과를 수신하는 단계를 포함하는 대화형 음성인식 방법.
(a) transmitting, by a voice recognition client, conversational format information, which is information on a conversation structure between the speech recognition server and the client, to the speech recognition server, wherein the conversational format information is spoken sequentially by the user; Including recognition object voice information corresponding to each of the recognition object voices;
(b) the voice recognition client sequentially transmitting each of the at least one voice to be recognized to the voice recognition server based on the conversation type information; And
and (c) the voice recognition client receiving a voice recognition result for each of the at least one voice to be recognized from the voice recognition server.
상기 인식대상 음성 정보 각각은 항목안내 텍스트를 포함하며,
상기 (b) 단계는,
상기 음성인식 클라이언트가, 상기 적어도 하나의 인식대상 음성 각각에 대하여 순차적으로, 상기 인식대상 음성에 상응하는 상기 인식대상 음성 정보에 포함된 항목안내 텍스트를 음성 변환하여 출력하고 상기 인식대상 음성을 상기 음성인식 서버로 전송하는 단계를 포함하는 대화형 음성인식 방법.
10. The method of claim 9,
Each of the recognition target voice information includes an item guide text,
The step (b)
The voice recognition client sequentially converts and outputs the item guide text included in the recognition target voice information corresponding to each of the at least one recognition target voice, and outputs the recognition target voice. Interactive voice recognition method comprising the step of transmitting to the recognition server.
상기 적어도 하나의 인식대상 음성 정보 각각은 음성인식 결과 변수를 포함하며,
상기 (c) 단계는,
상기 음성인식 클라이언트가, 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성에 대한 음성 인식한 결과가 저장된 상기 인식대상 음성에 상응하는 음성인식 결과 변수를 수신하는 단계를 포함하는 대화형 음성인식 방법.
10. The method of claim 9,
Each of the at least one recognition target voice information includes a voice recognition result variable,
The step (c)
And the voice recognition client, for each of the at least one recognition target voice, receiving a voice recognition result variable corresponding to the recognition target voice in which the voice recognition result for the recognition target voice is stored. Recognition method.
A computer-readable recording medium having recorded thereon a computer program for performing the method according to any one of claims 1 to 11.
클라이언트로부터 상기 대화형 음성인식 서버와 상기 클라이언트 간의 대화 구조에 관한 정보인 대화형식 정보를 수신하는 정보수신모듈-여기서, 상기 대화 형식 정보는 사용자에 의해 순차적으로 발화될 적어도 하나의 인식대상 음성 각각에 상응하는 인식대상 음성 정보를 포함함;
상기 대화형식 정보에 기초하여 상기 클라이언트로부터 상기 적어도 하나의 인식대상 음성 각각을 순차적으로 수신하는 음성수신모듈;
수신한 상기 적어도 하나의 인식대상 음성 각각에 대한 음성 인식을 수행하는 음성인식모듈; 및
상기 적어도 하나의 인식대상 음성 각각에 대한 음성인식 결과를 상기 클라이언트로 전송하는 결과전송모듈을 포함하는 대화형 음성인식 서버.
As an interactive voice recognition server,
An information receiving module for receiving conversation type information, which is information on a conversation structure between the interactive voice recognition server and the client, from the client, wherein the conversation type information is assigned to each of at least one recognition target voice to be sequentially spoken by the user. Including corresponding recognition object speech information;
A voice receiving module sequentially receiving each of the at least one recognition target voice from the client based on the conversation type information;
A voice recognition module for performing voice recognition on each of the at least one recognition target voice; And
And a result transmission module for transmitting a voice recognition result for each of the at least one recognition target voice to the client.
상기 인식대상 음성 정보 각각은 항목안내 텍스트를 포함하며,
상기 대화형 음성인식 서버는,
상기 적어도 하나의 인식대상 음성 각각을 수신하기 전에, 상기 인식대상 음성에 상응하는 상기 인식대상 음성 정보에 포함된 항목안내 텍스트를 음성 변환하여 상기 클라이언트에 전송하는 TTS모듈을 더 포함하는 대화형 음성인식 서버.
The method of claim 13,
Each of the recognition target voice information includes an item guide text,
The interactive voice recognition server,
Interactive voice recognition further comprises a TTS module for voice conversion of the item guide text included in the recognition target voice information corresponding to the recognition target voice to the client before receiving each of the at least one recognition target voice. server.
상기 적어도 하나의 인식대상 음성 정보 각각은 음성인식 결과 변수를 포함하며,
상기 결과전송모듈은,
상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성을 음성 인식한 결과를 상기 인식대상 음성에 상응하는 음성인식 결과 변수에 저장하여 상기 클라이언트로 전송하는 대화형 음성인식 서버.
The method of claim 13,
Each of the at least one recognition target voice information includes a voice recognition result variable,
The result transmission module,
And for each of the at least one recognition target voice, store the result of the voice recognition of the recognition target voice in a voice recognition result variable corresponding to the recognition target voice and transmit the result to the client.
상기 대화형식 정보는, 상기 적어도 하나의 인식대상 음성 정보에 포함된 음성인식 결과 변수를 포함하는 결과안내 텍스트를 더 포함하며,
상기 대화형 음성인식 서버는,
상기 결과안내 텍스트에 기초하여 결과안내 음성을 생성하고 생성된 상기 결과안내 음성을 상기 클라이언트에 전송하는 TTS모듈을 더 포함하는 대화형 음성인식 서버.
16. The method of claim 15,
The conversation type information further includes a result guide text including a voice recognition result variable included in the at least one recognition target voice information.
The interactive voice recognition server,
And a TTS module for generating a result guide voice based on the result guide text and transmitting the generated result guide voice to the client.
상기 대화형 음성인식 서버는,
상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 기초하여 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀을 결정하는 어휘풀 결정모듈을 더 포함하며,
상기 음성인식모듈은,
수신한 상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성의 인식대상어휘풀을 이용하여 음성인식을 수행하는 대화형 음성인식 서버.
The method of claim 13,
The interactive voice recognition server,
And a lexical pool determination module for determining the recognition target lexicon of the recognition target speech corresponding to the recognition target speech information, for each of the recognition target speech information,
The voice recognition module,
The speech recognition server of the at least one recognition target voice received, using the recognition target vocabulary of the recognition target voice to perform speech recognition.
상기 적어도 하나의 인식대상 음성 정보 각각은, 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀을 식별하기 위한 어휘풀식별정보를 포함하며,
상기 대화형식 정보는, 적어도 하나의 어휘집합을 더 포함하며,
상기 적어도 하나의 어휘집합 각각은, 상기 어휘풀식별정보 중 어느 하나에 의해 식별되는 대화형 음성인식 서버.
18. The method of claim 17,
Each of the at least one recognition target voice information includes lexical pool identification information for identifying a recognition target lexicon of the recognition target voice corresponding to the recognition target voice information,
The conversational form information further includes at least one vocabulary set.
And each of the at least one lexical set is identified by any one of the lexical pool identification information.
상기 어휘풀 결정모듈은,
상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보에 포함된 경우 상기 어휘집합을 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀로 결정하는 대화형 음성인식 서버.
19. The method of claim 18,
The lexical pool determining module,
For each of the recognition target speech information, when the lexical set identified by the lexical pool identification information included in the recognition target speech information is included in the conversation type information, the lexical set corresponds to the recognition target speech information. Interactive speech recognition server that determines the speech recognition target pool.
상기 음성인식 서버는 저장모듈을 더 포함하되,
상기 저장모듈은,
상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보에 포함된 경우 상기 어휘집합을 데이터베이스에 저장하고,
상기 어휘풀 결정모듈은,
상기 인식대상 음성 정보 각각에 대하여, 상기 인식대상 음성 정보에 포함된 어휘풀식별정보에 의해 식별되는 어휘집합이 상기 대화형식 정보에 포함되지 않은 경우 상기 데이터베이스에 저장된 어휘집합 중 상기 어휘풀식별정보에 의해 식별되는 어휘집합을 상기 인식대상 음성 정보에 상응하는 인식대상 음성의 인식대상어휘풀로 결정하는 대화형 음성인식 서버.
19. The method of claim 18,
The voice recognition server further includes a storage module,
The storage module,
Storing the lexical set in the database when the lexical set identified by the lexical pool identification information included in the recognition target voice information is included in the conversation type information for each of the recognition target voice information,
The lexical pool determining module,
For each of the recognized speech information, the lexical set identified by the lexical pool identification information included in the recognized speech information is included in the lexical pool identification information among the lexical sets stored in the database. And an lexical set identified by the lexical set of the speech to be recognized corresponding to the speech to speech information.
음성인식 서버로 상기 음성인식 서버와 상기 대화형 음성인식 클라이언트 간의 대화 구조에 관한 정보인 대화형식 정보를 전송하는 정보전송모듈-여기서, 상기 대화형식 정보는 사용자에 의해 순차적으로 발화되는 적어도 하나의 인식대상 음성 각각에 상응하는 인식대상 음성 정보를 포함함;
상기 대화형식 정보에 기초하여 상기 적어도 하나의 인식대상 음성 각각을 순차적으로 상기 음성인식 서버로 전송하는 음성전송모듈; 및
상기 음성인식 서버로부터 상기 적어도 하나의 인식대상 음성 각각에 대한 음성인식 결과를 수신하는 결과수신모듈을 포함하는 대화형 음성인식 클라이언트.
As an interactive voice recognition client,
An information transmission module for transmitting a dialogue format information, which is information about a dialogue structure between the speech recognition server and the interactive speech recognition client, to a speech recognition server, wherein the conversation format information is sequentially uttered by a user. Including speech recognition information corresponding to each speech object;
A voice transmission module for sequentially transmitting each of the at least one recognition target voice to the voice recognition server based on the conversation type information; And
And a result receiving module configured to receive a voice recognition result for each of the at least one voice to be recognized from the voice recognition server.
상기 인식대상 음성 정보 각각은 항목안내 텍스트를 포함하며,
상기 대화형 음성인식 클라이언트는,
상기 적어도 하나의 인식대상 음성 각각을 전송하기 전에, 상기 인식대상 음성에 상응하는 상기 인식대상 음성 정보에 포함된 항목안내 텍스트를 음성 변환하여 출력하는 TTS모듈을 더 포함하는 대화형 음성인식 클라이언트.
The method of claim 21,
Each of the recognition target voice information includes an item guide text,
The interactive voice recognition client,
And a TTS module for converting and outputting the item guide text included in the recognition target voice information corresponding to the recognition target voice before transmitting each of the at least one recognition target voice.
상기 적어도 하나의 인식대상 음성 정보 각각은 음성인식 결과 변수를 포함하며,
상기 결과수신모듈은,
상기 적어도 하나의 인식대상 음성 각각에 대하여, 상기 인식대상 음성에 대한 음성 인식한 결과가 저장된 상기 인식대상 음성에 상응하는 음성인식 결과 변수를 수신하는 단계를 포함하는 대화형 음성인식 클라이언트.
The method of claim 21,
Each of the at least one recognition target voice information includes a voice recognition result variable,
The result receiving module,
And receiving a voice recognition result variable corresponding to each of the at least one voice to be recognized, corresponding to the voice to be stored in which the voice recognition result of the voice to be recognized is stored.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120074364A KR101207435B1 (en) | 2012-07-09 | 2012-07-09 | Interactive speech recognition server, interactive speech recognition client and interactive speech recognition method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120074364A KR101207435B1 (en) | 2012-07-09 | 2012-07-09 | Interactive speech recognition server, interactive speech recognition client and interactive speech recognition method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101207435B1 true KR101207435B1 (en) | 2012-12-04 |
Family
ID=47906737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120074364A KR101207435B1 (en) | 2012-07-09 | 2012-07-09 | Interactive speech recognition server, interactive speech recognition client and interactive speech recognition method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101207435B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140089836A (en) * | 2013-01-07 | 2014-07-16 | 삼성전자주식회사 | Interactive server, display apparatus and controlling method thereof |
WO2019135599A1 (en) * | 2018-01-05 | 2019-07-11 | 삼성전자 주식회사 | Method for displaying electronic document for processing voice command, and electronic device therefor |
KR20190096312A (en) * | 2019-08-05 | 2019-08-19 | 삼성전자주식회사 | Interactive server, display apparatus and controlling method thereof |
CN112863506A (en) * | 2020-12-30 | 2021-05-28 | 平安普惠企业管理有限公司 | Service information acquisition method and device, computer equipment and readable storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006098566A (en) | 2004-09-28 | 2006-04-13 | Clarion Co Ltd | Speech recognition system |
KR100815731B1 (en) | 2005-06-30 | 2008-03-20 | 캐논 가부시끼가이샤 | Speech recognition method and speech recognitnion apparatus |
JP2008268517A (en) | 2007-04-19 | 2008-11-06 | Matsushita Electric Works Ltd | Operating device with speech recognition function |
JP2010191194A (en) | 2009-02-18 | 2010-09-02 | Toyota Motor Corp | Speech recognition device |
-
2012
- 2012-07-09 KR KR1020120074364A patent/KR101207435B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006098566A (en) | 2004-09-28 | 2006-04-13 | Clarion Co Ltd | Speech recognition system |
KR100815731B1 (en) | 2005-06-30 | 2008-03-20 | 캐논 가부시끼가이샤 | Speech recognition method and speech recognitnion apparatus |
JP2008268517A (en) | 2007-04-19 | 2008-11-06 | Matsushita Electric Works Ltd | Operating device with speech recognition function |
JP2010191194A (en) | 2009-02-18 | 2010-09-02 | Toyota Motor Corp | Speech recognition device |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140089836A (en) * | 2013-01-07 | 2014-07-16 | 삼성전자주식회사 | Interactive server, display apparatus and controlling method thereof |
KR102009316B1 (en) * | 2013-01-07 | 2019-08-09 | 삼성전자주식회사 | Interactive server, display apparatus and controlling method thereof |
WO2019135599A1 (en) * | 2018-01-05 | 2019-07-11 | 삼성전자 주식회사 | Method for displaying electronic document for processing voice command, and electronic device therefor |
US11720324B2 (en) | 2018-01-05 | 2023-08-08 | Samsung Electronics Co., Ltd. | Method for displaying electronic document for processing voice command, and electronic device therefor |
KR20190096312A (en) * | 2019-08-05 | 2019-08-19 | 삼성전자주식회사 | Interactive server, display apparatus and controlling method thereof |
KR102049833B1 (en) * | 2019-08-05 | 2019-11-29 | 삼성전자주식회사 | Interactive server, display apparatus and controlling method thereof |
CN112863506A (en) * | 2020-12-30 | 2021-05-28 | 平安普惠企业管理有限公司 | Service information acquisition method and device, computer equipment and readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11727914B2 (en) | Intent recognition and emotional text-to-speech learning | |
KR102582291B1 (en) | Emotion information-based voice synthesis method and device | |
RU2352979C2 (en) | Synchronous comprehension of semantic objects for highly active interface | |
RU2349969C2 (en) | Synchronous understanding of semantic objects realised by means of tags of speech application | |
KR20170033722A (en) | Apparatus and method for processing user's locution, and dialog management apparatus | |
KR100561228B1 (en) | Method for VoiceXML to XHTML+Voice Conversion and Multimodal Service System using the same | |
JP2019102063A (en) | Method and apparatus for controlling page | |
US20060235694A1 (en) | Integrating conversational speech into Web browsers | |
US10824664B2 (en) | Method and apparatus for providing text push information responsive to a voice query request | |
US11093110B1 (en) | Messaging feedback mechanism | |
WO2020238045A1 (en) | Intelligent speech recognition method and apparatus, and computer-readable storage medium | |
US20230127787A1 (en) | Method and apparatus for converting voice timbre, method and apparatus for training model, device and medium | |
KR101207435B1 (en) | Interactive speech recognition server, interactive speech recognition client and interactive speech recognition method thereof | |
US11403462B2 (en) | Streamlining dialog processing using integrated shared resources | |
CN112669842A (en) | Man-machine conversation control method, device, computer equipment and storage medium | |
CN114330371A (en) | Session intention identification method and device based on prompt learning and electronic equipment | |
JP2012063537A (en) | Communication terminal, speech recognition method and speech recognition program | |
CN110308886A (en) | The system and method for voice command service associated with personalized task are provided | |
CN109887490A (en) | The method and apparatus of voice for identification | |
Vishnupriya et al. | Speech recognition tools for mobile phone-a comparative study | |
Gupta et al. | Desktop Voice Assistant | |
KR101212126B1 (en) | Speech recognition server, speech recognition client and speech recognition method thereof | |
CN114121010A (en) | Model training, voice generation, voice interaction method, device and storage medium | |
KR102181583B1 (en) | System for voice recognition of interactive robot and the method therof | |
Ondas et al. | Design and development of the Slovak multimodal dialogue system with the BML Realizer Elckerlyc |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20151126 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20161129 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190329 Year of fee payment: 9 |