KR20020023197A - A Method For Providing Data Using Natural Voice Process And The System Therefor - Google Patents

A Method For Providing Data Using Natural Voice Process And The System Therefor Download PDF

Info

Publication number
KR20020023197A
KR20020023197A KR1020010086444A KR20010086444A KR20020023197A KR 20020023197 A KR20020023197 A KR 20020023197A KR 1020010086444 A KR1020010086444 A KR 1020010086444A KR 20010086444 A KR20010086444 A KR 20010086444A KR 20020023197 A KR20020023197 A KR 20020023197A
Authority
KR
South Korea
Prior art keywords
data
voice
natural sound
voice recognition
natural
Prior art date
Application number
KR1020010086444A
Other languages
Korean (ko)
Inventor
방기환
Original Assignee
김연수
(주)시스윌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김연수, (주)시스윌 filed Critical 김연수
Priority to KR1020010086444A priority Critical patent/KR20020023197A/en
Publication of KR20020023197A publication Critical patent/KR20020023197A/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications

Abstract

PURPOSE: A method and a system for providing data using natural sound processing are provided to expand the range of voice recognition by separately building an original form set-up procedure and a natural sound processing procedure and to transmit an identical output vale even if difference input values are transmitted from users. CONSTITUTION: A method for providing data using natural sound processing comprises the steps of setting up original data in a web server(40) to identify the output data of an expanding grammar(31) even if a voice recognition server(30) receives the identical voice command signals from a mobile terminal(10), processing voice recognition to output the data corresponding to the voice command, processing the output data by a natural sound and transmitting the data to the voice recognition server, and transmitting a web page corresponding to the natural language processed data and transmitting the web page to the mobile terminal.

Description

자연음 처리를 이용한 데이터 제공 방법과 이를 위한 시스템 {A Method For Providing Data Using Natural Voice Process And The System Therefor}A method for providing data using natural voice process and the system therefor}

본 발명은 자연음 처리를 이용한 데이터 제공 방법과 이를 위한 시스템에 관한 것이다.The present invention relates to a data providing method using natural sound processing and a system therefor.

종래기술에 있어 핸드폰 등 이동단말기 사용자가 필요한 정보를 요청하여 다운로드 받으려면 사용자가 일일이 키패드상의 버튼을 눌러야 하는 번거로움이 있었고 또 잘못 입력시 수정하는 번거로움이 많았다. 또 무선인터넷이 가능한 이동단말기로 웹서버에 접속하여도 일일히 그 키패드상의 버튼으로 일일이 조작해야 하는 번거로움이 있어 사용자에게는 접속시간 만큼의 비용이 추가로 지불해야 하는 경제적 부담도 많았다.In the prior art, a user of a mobile terminal such as a mobile phone requires a user to download and request the necessary information. In addition, even when accessing a web server using a wireless terminal capable of wireless Internet, it is cumbersome to operate it with buttons on the keypad. Therefore, the user has to pay additional cost as much as the access time.

따라서 위와 같은 단점들을 없애기 위해 음성인식 엔진을 이용하여 음성명령을 이용하는 기술이 개시된 바가 있지만, 이 역시 그래머가 고정된 형태로 내장되어 있어 동일한 음성명령이 입력되어도 이에 대응하는 결과값이 서로 불일치 하는 단점이 있다. 즉 입력되는 음성명령이 "오늘의 날씨", "오늘날씨", "오~늘의 나알씨" 등은 서로 입력값이 달라도 출력값은 하나여야 사용자가 원하는 정보를 신뢰있게 수신받을 수 있는데, 종래기술에 있어 음성인식은 이를 구별할 수 없다는 단점을 가지고 있다.Therefore, in order to eliminate the above disadvantages, a technique using a voice command using a speech recognition engine has been disclosed, but this also has a built-in grammar in a fixed form, so that even when the same voice command is input, corresponding results are inconsistent with each other. There is this. That is, the voice command input is "today's weather", "today's weather", "today's Naal's", etc., even if the input value is different from each other, only one output value can be reliably received the desired information, the prior art Speech recognition has the disadvantage of being indistinguishable.

그 결과 종래기술에 따른 음성처리 시스템이나 방법은 이동통신사 뿐 아니라 단말기 제조사 그리고 이동단말기 사용자에게 많은 불편함을 주는 등 많은 문제점을 안고 있다.As a result, the voice processing system or method according to the related art has many problems such as not only a mobile communication company but also a lot of inconvenience to a terminal manufacturer and a user of a mobile terminal.

따라서 본 발명은 상기와 같은 단점을 제거하여 원형 설정 과정과 자연음 처리 과정을 별도로 구축함으로써 음성인식 범위를 확장하고 사용자 마다 각기 다른 입력값이 수신되어도 출력값을 동일하게 전송할 수 있는 자연음 처리를 이용한 데이터 제공 방법과 이를 위한 시스템을 제공하는 데 그 목적이 있다.Therefore, the present invention extends the speech recognition range by separately constructing a circular setting process and a natural sound processing process by eliminating the above-mentioned disadvantages, and using natural sound processing to transmit an output value even if different input values are received for each user. The purpose is to provide a data providing method and a system therefor.

도 1 은 자연음 처리를 이용한 데이터 제어 시스템을 도시하는 블럭도이다.1 is a block diagram showing a data control system using natural sound processing.

도 2 는 자연음 처리를 이용한 데이터 제어 시스템을 도시하는 본 발명의 변형예를 도시하는 블럭도이다.Fig. 2 is a block diagram showing a modification of the present invention showing a data control system using natural sound processing.

* 도면의 주요부분에 대한 설명 *Description of the main parts of the drawing

10 : 무선단말기, 이동단말기 20 : 분산음성 게이트웨이10: wireless terminal, mobile terminal 20: distributed voice gateway

30 : 음성인식서버 31 : 그래머30: speech recognition server 31: grammar

40 : 웹서버 41 : 설정기40: web server 41: configurator

50 : 자연음 처리 서버 51 : 그래머설정기50: natural sound processing server 51: grammar setter

60 : 단말기60: terminal

본 발명에 따르면 자연음 처리를 이용한 데이터 제공 방법과 이를 위한 시스템이 제공된다.According to the present invention, a data providing method using natural sound processing and a system therefor are provided.

자연음 처리를 이용한 데이터 제공 방법은, 동일한 음성명령신호에 대응되는 확장그래머를 자연음 처리기에서 확대 생성하여 음성인식서버에 저장시키고, 음성인식서버가 이동단말기로부터 동일한 음성명령신호를 수신하여도 그 음성명령신호에 대응되는 확장그래머의 출력 데이터가 하나가 되도록, 인식되기 원하는 원형 데이터를 웹서버에 설정하는 과정과, 이동단말기로부터 음성명령을 수신하여 그 음성명령에 대응되는 출력 데이터를 출력하도록 음성인식을 처리하는 과정과, 음성인식이 종료되면 출력 데이터를 자연음 처리기를 통해 자연음 처리시켜 자연처리 데이터를 음성인식서버에 전송하는 자연음 처리 과정과, 음성인식서버가 자연처리 데이터를 수신시 이에 대응되는 웹페이지를 데이터 베이스 또는 정보제공자의 서버에서 검색하여 이동단말기로 전송하는 웹페이지 전송과정으로 구성된다.In the data providing method using natural sound processing, an extended grammar corresponding to the same voice command signal is expanded and generated by the natural sound processor and stored in the voice recognition server, and the voice recognition server receives the same voice command signal from the mobile terminal. Setting the desired circular data in the web server so that the output data of the extended grammar corresponding to the voice command signal is one; and receiving the voice command from the mobile terminal and outputting the output data corresponding to the voice command. A process of processing the recognition, a natural sound processing process of outputting the natural data through the natural sound processor when the voice recognition is finished, and transmitting the natural processing data to the voice recognition server, and when the voice recognition server receives the natural processing data. Search the corresponding web page in the database or information provider's server It consists of a web page transmission process sent to a mobile terminal.

특히 웹페이지는 음악데이터, 음성데이터, 문자데이터 및 단문메세지데이터 중 어느 하나로 구성될 수 있다.In particular, the web page may be composed of any one of music data, voice data, text data, and short message data.

본 발명에 따른 자연음 처리를 이용한 데이터 제공 시스템은, 자연음 처리기에서 확장그래머를 생성하여 음성인식서버에 동일한 음성명령신호가 수신시 그 음성명령신호에 대응되는 확장그래머의 출력 데이터 하나를 출력하도록, 인식되기 원하는 원형 데이터를 설정하여 자연음 처리기에 전송하는 웹서버와, 이동단말기의 음성명령신호를 수신시 그 음성명령신호를 인식하여 이에 대응되는 확장그래머를검색하여 그 확장그래머가 속하는 출력 데이터를 자연음 처리기로 전송하고, 자연처리 데이터를 자연음 처리기로부터 수신시 이에 대응되는 웹페이지 (음악데이터, 음성데이터, 문자데이터 및 단문메세지데이터 중 어느 하나로 구성된 데이터) 를 이동단말기로 전송하는 음성인식서버와, 전송된 출력 데이터를 수신시 자연음 처리하여 자연처리 데이터를 음성인식서버에 전송하는 자연음 처리기로 구성된다.The data providing system using the natural sound processing according to the present invention generates an extended grammar in the natural sound processor and outputs one output data of the extended grammar corresponding to the voice command signal when the same voice command signal is received to the voice recognition server. The web server transmits the natural data processor to the natural sound processor, and recognizes the voice command signal when receiving the voice command signal of the mobile terminal, and searches the extended grammar corresponding to the output data to which the extended grammar belongs. Is transmitted to the natural sound processor, and when the natural processing data is received from the natural sound processor, a web page (data composed of any one of music data, voice data, text data, and short message data) corresponding thereto is transmitted to the mobile terminal. Natural processing by processing natural sound when receiving output data The data processor is configured to natural sound to be transmitted to the speech recognition server.

특히, 음성인식서버는 자동응답 기능을 갖는 시스템일 수 있다.In particular, the voice recognition server may be a system having an automatic answering function.

지금부터 도면을 참조하여 본 발명을 설명하도록 한다. 도 1 에는 자연어 처리를 이용한 데이터 제공 시스템의 블럭도가 도시되어 있다.The present invention will now be described with reference to the drawings. 1 is a block diagram of a data providing system using natural language processing.

본 발명에 따르면 원형 설정 과정, 음성인식 처리, 자연음 처리 및 웹페이지 전송 과정으로 구성되고 이를 실현시키기 위해 도 1 과 같은 시스템을 구성하였다.According to the present invention, a circular setup process, a voice recognition process, a natural sound process, and a web page transmission process are implemented.

본 발명의 이해의 편의상 음성인식 처리부터 설명하기로 한다.For ease of understanding of the present invention, a voice recognition process will be described.

우선 이동단말기 (10) 의 사용자가 예를 들어 "오늘의 날씨"에 대한 정보를 음성으로 명령하면, 이동단말기 (10) 에서 그 음성명령을 전처리하여 전처리 데이터를 분산음성 게이트웨이 (20) 에 전송하게 되고, 이 전처리 데이터가 다시 음성인식 서버 (30) 로 전달된다. 즉 이동단말기 (10) 와 분산음성 게이트웨이 (20)의 분산음성인식을 통해 음성인식서버 (30) 가 분산음성 게이트웨이 (20) 로부터 인식된 음성신호를 전달받는다.First, when a user of the mobile terminal 10 commands, for example, information about "weather of the day" by voice, the mobile terminal 10 preprocesses the voice command to transmit the preprocessed data to the distributed voice gateway 20. Then, this preprocessing data is transferred to the voice recognition server 30 again. That is, the voice recognition server 30 receives the voice signal recognized from the distributed voice gateway 20 through distributed voice recognition of the mobile terminal 10 and the distributed voice gateway 20.

그 다음 분산음성 게이트웨이 (20) 는 음성인식서버 (30) 에서 음성명령이 후처리 되고, 자연음 처리된 후 자연음 처리된 데이터에 대응하는 정보를 접속된 정보제공업자의 서버 (미도시) 에서 검색하여 이동단말기 (10) 에 그 대응되는 웹페이지를 전송하게 된다. 음성신호가 후처리되었다는 의미는 음성인식이 종료되어 문자 텍스트로 전환되었음을 말한다.The distributed voice gateway 20 then post-processes the voice command in the voice recognition server 30 and processes the information in the server (not shown) of the connected information provider after the natural sound is processed. The web page is searched and the web page corresponding to the mobile terminal 10 is transmitted. The post-processing of the voice signal means that voice recognition has been terminated and converted into text.

본 발명에서는 이해의 편의상 분산음성 게이트웨에 (20) 와 음성인식서버(30) 를 분리시켰으나 하나의 시스템으로 구성할 수 있다.In the present invention, the voice recognition server 30 is separated from the distributed voice gateway 20 for convenience of understanding, but can be configured as one system.

한편 음성인식된 데이터는 여러 가지 태양이 존재할 수 있어, 본 발명에서는 음성인식 처리 과정 전에는 원형 설정 과정을 두었고, 음성인식 처리 과정 후에는 자연음 처리과정을 두어 음성명령을 정확히 분석하여 해당 웹페이지를 이동단말기 (10) 에 전송하도록 하였다.On the other hand, the voice recognition data may exist in various aspects, in the present invention, before the voice recognition processing process, a circular setting process was performed, and after the voice recognition process, a natural sound processing process was performed to accurately analyze voice commands to analyze the web page. Transmission to the mobile terminal (10).

다음은 원형 설정 과정에 대하여 살펴보기로 하자. 접속된 이동단말기 (10) 로부터 음성명령신호가 수신되면, 분산음성 게이트웨이 (20) 는 요청한 음성명령에 대응되는 데이터, 즉 웹페이지를 이동단말기 (10) 에 제공하여야 한다. 이때 이동단말기 (10) 가 분산음성 게이트웨이 (20) 에 요청하는 음성신호는 여러 가지 태양이 존재할 수 있는데 예를 들어 "오늘의 날씨" 에 대한 음성명령의 경우를 보면, "오늘날씨", "오늘날씨 어때", "날씨" 등 이동단말기 (10) 의 사용자 마다 각기 다르다.Next, let's take a look at the prototype configuration process. When the voice command signal is received from the connected mobile terminal 10, the distributed voice gateway 20 should provide the mobile terminal 10 with data corresponding to the requested voice command, that is, a web page. At this time, the voice signal requested by the mobile terminal 10 to the distributed voice gateway 20 may exist in various ways. For example, in the case of the voice command for "weather of the day", "today weather", "today" Each of the users of the mobile terminal 10, such as the "how about the weather" and "weather", is different.

그래서 인식되는 음성신호가 "오늘날씨", "오늘날씨 어때", "날씨" 등으로 입력되어도 그 입력값에 대응되는 출력 데이터는 각각 존재할 필요가 없고 하나만 존재할 필요성이 있다. 결국 음성인식서버 시스템 운영자는 단말기 (60) 를 통해 웹서버 (40) 에 접속해서 설정기 (41) 에 출력 데이터로서 하나의 원형 (위의 경우 "오늘의 날씨") 을 등록한다.Thus, even if the recognized voice signal is input to "today weather", "how it is today", "weather", etc., the output data corresponding to the input value does not need to exist, but only one. Eventually, the voice recognition server system operator accesses the web server 40 via the terminal 60 and registers one prototype ("today's weather" in the above case) as output data in the setter 41.

즉 이동단말기 (10) 의 음성신호가 본질적으로 동일한 정보를 요구할 때에는 일정한 하나의 정보를 전송하도록 웹서버 (40) 는 인터넷망을 통해 접속된 단말기(60) (컴퓨터, 이동장치, 개인휴대 단말기 등) 로부터 인식되기 원하는 단어들 중 원형을 입력받아 그 원형을 설정기 (41) 에 저장 혹은 등록을 한다.That is, when the voice signal of the mobile terminal 10 requires essentially the same information, the web server 40 transmits a single piece of information to the terminal 60 (computer, mobile device, personal portable terminal, etc.) connected through the Internet network. Receives a prototype of the words you want to be recognized from) and stores or registers the prototype in the setter (41).

그리고 자연음 처리기 (50) 는 등록된 원형에 속할 수 있는 여러 가지 음성인식에 필요한 확장그래머를 그래머 생성기 (51) 를 통해 생성한 후 음성인식서버(30) 전송한다. 다시 말해서, 그래머 생성기 (51) 는 단말기 (60) 를 통해 설정기 (41) 에 등록된 원형을 음성인식에 사용될 확장그래머로 여러 개 확대 생성한 후 음성인식서버 (30) 에 전송한다. 그래서 음성인식서버 (30) 는 확장그래머들을 그래머 (31) 에 저장시켜 놓고, 나중에 이동단말기 (10) 로부터 음성인식서버(30) 에 음성신호가 입력되면, 즉 전처리된 데이터가 입력되면 이를 분석하여 이에 해당하는 확장그래머를 검색하여 음성인식을 종료하고 분산음성 게이트웨이 (20)가 이에 대응되는 웹페이지를 전송할 준비를 마치게 된다.The natural sound processor 50 generates an extended grammar for the various voice recognitions that can belong to the registered prototype through the grammar generator 51 and then transmits the voice recognition server 30. In other words, the grammar generator 51 expands and generates a plurality of prototypes registered in the setter 41 through the terminal 60 as an extended grammar to be used for voice recognition, and transmits them to the voice recognition server 30. Thus, the voice recognition server 30 stores the extended grammars in the grammar 31, and later analyzes the voice signals when the voice signals are input from the mobile terminal 10 to the voice recognition server 30, that is, when the preprocessed data is input. Search for the extended grammar corresponding to the end of the voice recognition and the distributed voice gateway 20 is ready to transmit the corresponding web page.

위와 같이 음성인식에 필요한 확장그래머를 그래머 (31) 에 저장 내지는 등록시키는 과정 즉 원형 설정 과정이 끝나면, 그 이후 이동단말기 (10) 의 사용자가 음성으로 정보를 요청하면 상술한 바와 같이 음성인식 처리 과정이 진행하게 된다.After the process of storing or registering the extended grammar required for voice recognition in the grammar 31 as described above, that is, the circular setting process, the user of the mobile terminal 10 requests information by voice thereafter, as described above. This will proceed.

즉 음성인식서버 (30) 가 이동단말기 (10) 로부터 전처리된 데이터를 수신하면, 그래머 설정기 (51) 로부터 생성된 확장그래머들이 저장된 그래머 (31) 를 검색하여 인식된 음성신호에 대응되는 확장그래머를 찾아서 자연음 처리기 (50) 로 전송한다. 여기서 그래머 설정기 (51) 는 이동단말기 (10) 의 음성명령에 대응되는여러 개의 확장그래머들을 미리 만들어서 그래머 (31) 에 저장, 추가 또는 삭제시킬 수 있음은 당연하다.That is, when the voice recognition server 30 receives the preprocessed data from the mobile terminal 10, the extended grammar generated by the grammar setter 51 searches for the stored grammar 31 and the extended grammar corresponding to the recognized voice signal. Is found and transmitted to the natural sound processor 50. Here, the grammar setter 51 may make a plurality of extended grammars corresponding to voice commands of the mobile terminal 10 in advance and store, add or delete the grammar 31.

그 다음 자연음 처리 과정을 살펴 보면, 음성인식서버 (30) 에서 음성명령을 인식하여 문자 텍스트로 변환되었을 때 그 문자 텍스트가 실제 명령을 의도한 것과 다를 수 있다. 예를 들어 이동단말기 (10) 의 사용자가 "오늘의 날씨" 를 정확한 발음으로 입력하지 않고, "오-늘의 나알씨"로 입력한다면 그 문자 텍스트는 "오늘의 날씨"가 되어야 한다. 그러나 종래기술에서는 이와 같은 문제를 해결할 수 없다.Next, looking at the natural sound processing process, when the voice recognition server 30 recognizes the voice command and is converted into text text, the text text may be different from the actual command intended. For example, if the user of the mobile terminal 10 does not input "weather of the day" as the correct pronunciation and inputs as "today's Naal," the text of the text should be "weather of the day." However, in the prior art, such a problem cannot be solved.

따라서 본 발명에서는 "오-늘의 나알씨"라는 문자 텍스트를 자연음 처리 과정을 거쳐서 "오늘의 날씨" 가 되도록 하여 오늘의 날씨에 대응되는 웹페이지를 이동단말기 (10) 에게 제공하도록 하였다.Therefore, in the present invention, the text of the text "N-day of Naal" through the natural sound processing process to become "weather of the day" to provide a web page corresponding to the weather of the day to the mobile terminal (10).

자연음 처리기 (50) 는 전송받은 데이터를 맞춤법, 오자교정작업 등을 행하여 분산음성 게이트웨이 (20) 를 경유하여 해당 이동단말기 (10) 로 전송한다.The natural sound processor 50 transmits the received data to the corresponding mobile terminal 10 via the distributed voice gateway 20 by performing spelling, erroneous correction, and the like.

데이터는 음성파일 혹은 텍스트 파일을 수 있으며 메모리에 있는 데이터도 가능하다.The data can be a voice file or a text file and can also be in memory.

예를 들어 이동단말기 (10) 의 사용자가 "사랑을 위하여" 라는 음악파일을 다운로드 받고 싶을 때에는 음성명령으로 "ㅇㅇㅇ의 사랑을 위하여"를 입력한 경우 상술한 바와 같이 음성인식이 처리되어 직접 "ㅇㅇㅇ의 사랑을 위하여" 라는 음악파일이 전송될 수 있고, 음성메세지로 편지를 보내고자 할 때에는 음성메세지를 입력하면 음성인식서버 (30) 에서 음성인식이 종료되어 자연어 처리기 (50) 에서 자연음 처리 과정을 거치게 된다.For example, when the user of the mobile terminal 10 wants to download a music file called "For Love", the user inputs "For Love" as a voice command. As described above, the voice recognition is processed and directly "ㅇㅇㅇ." For the love of the music file "can be transmitted, when you want to send a letter to the voice message when the voice message is entered in the speech recognition server 30, the speech recognition is terminated, the natural language processor 50 natural sound processing process Will go through.

또 "오늘의 날씨"를 알고 싶으면 음성명령이 자연음 처리되어 분산음성 게이트웨이 (20) 로 전송되고 이 게이트웨이 (20) 는 오늘의 날씨에 대응되는 데이터를 검색하여 접속된 이동단말기 (20) 로 전송한다. 물론 접속되지 않은 제3의 이동단말기로 전송할 수 있다.If the user wants to know "weather of the day", a voice command is processed by natural sound and transmitted to the distributed voice gateway 20. The gateway 20 retrieves data corresponding to today's weather and transmits it to the connected mobile terminal 20. do. Of course, it can transmit to the third mobile terminal which is not connected.

따라서 이동단말기 (10) 의 사용자는 음성명령을 통해 원하는 정보를 문자 혹은 음성으로 수신할 수 있고, 제3자의 이동단말기 사용자에게 전송할 수 있다.Therefore, the user of the mobile terminal 10 may receive desired information by text or voice through a voice command, and may transmit the information to a third party mobile terminal user.

도 2 는 본 발명의 또 다른 실시예를 도시하는 블록도로서 도 1 의 분산음성 게이트웨이 (20) 와 음성인식서버 (30) 를 하나의 시스템으로 구성한 것이다.FIG. 2 is a block diagram showing another embodiment of the present invention in which the distributed voice gateway 20 and the voice recognition server 30 of FIG. 1 are configured as one system.

분산음성 게이트웨이 (20) 와 음성인식서버 (30) 가 하나로 합체된 것을 제외하고는 앞서 설명한 것과 동일하므로 그 상세한 설명은 생략하기로 한다.Since the distributed voice gateway 20 and the voice recognition server 30 are the same as those described above, the detailed description thereof will be omitted.

아울러 분산음성 게이트웨이 (20), 음성인식서버 (30), 자연어 처리기 (50) 및 웹서버 (40) 는 하나의 시스템으로 구성될 수 있는 등, 본 발명의 구성과 내용에 변경이 없는 한 다양한 변형이 가능함은 다언을 요하지 않는다.In addition, the distributed voice gateway 20, the voice recognition server 30, the natural language processor 50 and the web server 40 may be configured as a single system, and various modifications as long as there is no change in the configuration and contents of the present invention. This possibility does not require multiple words.

이상, 본 발명에 따르면 동일한 의미의 음성명령이 수신되어도 하나의 데이터만을 출력하여 사용자에게 정확한 데이터를 전송할 수 있는 효과를 제공한다.As described above, according to the present invention, even when a voice command having the same meaning is received, only one data is output to provide an effect of transmitting accurate data to the user.

Claims (5)

자연음 처리를 이용한 데이터 제공 방법에 있어,In the data providing method using natural sound processing, 동일한 음성명령신호에 대응되는 확장그래머를 자연음 처리기에서 확대 생성하여 음성인식서버에 저장시키고, 음성인식서버가 이동단말기로부터 동일한 음성명령신호를 수신하여도 그 음성명령신호에 대응되는 확장그래머의 출력 데이터가 하나가 되도록, 인식되기 원하는 원형 데이터를 웹서버에 설정하는 과정과,The extended grammar corresponding to the same voice command signal is expanded and generated by the natural sound processor and stored in the voice recognition server, and the output of the extended grammar corresponding to the voice command signal even when the voice recognition server receives the same voice command signal from the mobile terminal. Setting the web data to be recognized as a single data in the web server, 이동단말기로부터 음성명령을 수신하여 그 음성명령에 대응되는 출력 데이터를 출력하도록 음성인식을 처리하는 과정과,Receiving a voice command from the mobile terminal and processing voice recognition to output output data corresponding to the voice command; 음성인식이 종료되면 출력 데이터를 자연음 처리기를 통해 자연음 처리시켜 자연처리 데이터를 음성인식서버에 전송하는 자연음 처리 과정과,When the voice recognition is finished, the natural sound processing process for transmitting the natural data to the voice recognition server by processing the natural sound output data through the natural sound processor, 음성인식서버가 자연처리 데이터를 수신시 이에 대응되는 웹페이지를 데이터베이스 또는 정보제공자의 서버에서 검색하여 이동단말기로 전송하는 웹페이지 전송과정으로 이루어짐을 특징으로 하는 자연음 처리를 이용한 데이터 제공 방법.When the speech recognition server receives the natural processing data, the web page transmission process of searching the web page corresponding to the corresponding web page in the database or information provider server and transmitting to the mobile terminal. 제 1 항에 있어서, 상기 웹페이지는 음악데이터, 음성데이터, 문자데이터 및 단문메세지데이터 중 어느 하나인 것을 특징으로 하는 자연음 처리를 이용한 데이터 제공 방법.The method of claim 1, wherein the web page is one of music data, voice data, text data, and short message data. 자연음 처리를 이용한 데이터 제공 시스템에 있어서,In the data providing system using natural sound processing, 자연음 처리기에서 확장그래머를 생성하여 음성인식서버에 동일한 음성명령신호가 수신시 그 음성명령신호에 대응되는 확장그래머의 출력 데이터 하나를 출력하도록, 인식되기 원하는 원형 데이터를 설정하여 자연음 처리기에 전송하는 웹서버와,Creates an extended grammar in the natural sound processor and sets the circular data to be recognized to output one output data of the extended grammar corresponding to the voice command signal when the same voice command signal is received to the voice recognition server, and sends it to the natural sound processor. With a web server 이동단말기의 음성명령신호를 수신시 그 음성명령신호를 인식하여 이에 대응되는 확장그래머를 검색하여 그 확장그래머가 속하는 출력 데이터를 자연음 처리기로 전송하고, 자연처리 데이터를 자연음 처리기로부터 수신시 이에 대응되는 웹페이지를 이동단말기로 전송하는 음성인식서버와,When receiving the voice command signal of the mobile terminal, it recognizes the voice command signal, searches for the corresponding extended grammar, and transmits the output data to which the extended grammar belongs to the natural sound processor, and receives the natural processing data from the natural sound processor. Voice recognition server for transmitting the corresponding web page to the mobile terminal, 전송된 출력 데이터를 수신시 자연음 처리하여 자연처리 데이터를 음성인식서버에 전송하는 자연음 처리기로 이루어짐을 특징으로 하는 자연음 처리를 이용한 데이터 제공 시스템.And a natural sound processor configured to transmit natural processing data to a voice recognition server by processing natural sound upon reception of the transmitted output data. 제 3 항에 있어서, 상기 음성인식서버는 자동응답 기능을 갖는 음성인식서버인 것을 특징으로 하는 자연음 처리를 이용한 데이터 제공 시스템.4. The system of claim 3, wherein the voice recognition server is a voice recognition server having an automatic response function. 제 3 항 또는 제 4 항에 있어서, 상기 웹페이지는 음악데이터, 음성데이터, 문자데이터 및 단문메세지데이터 중 어느 하나인 것을 특징으로 하는 자연음 처리를 이용한 데이터 제공 시스템.The data providing system using natural sound processing according to claim 3 or 4, wherein the web page is any one of music data, voice data, text data, and short message data.
KR1020010086444A 2001-12-27 2001-12-27 A Method For Providing Data Using Natural Voice Process And The System Therefor KR20020023197A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010086444A KR20020023197A (en) 2001-12-27 2001-12-27 A Method For Providing Data Using Natural Voice Process And The System Therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010086444A KR20020023197A (en) 2001-12-27 2001-12-27 A Method For Providing Data Using Natural Voice Process And The System Therefor

Publications (1)

Publication Number Publication Date
KR20020023197A true KR20020023197A (en) 2002-03-28

Family

ID=19717726

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010086444A KR20020023197A (en) 2001-12-27 2001-12-27 A Method For Providing Data Using Natural Voice Process And The System Therefor

Country Status (1)

Country Link
KR (1) KR20020023197A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112863512A (en) * 2021-01-18 2021-05-28 深圳创维-Rgb电子有限公司 Voice interaction call processing method and device, terminal equipment and storage medium
CN112863512B (en) * 2021-01-18 2024-04-30 深圳创维-Rgb电子有限公司 Voice interaction call processing method and device, terminal equipment and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5621859A (en) * 1994-01-19 1997-04-15 Bbn Corporation Single tree method for grammar directed, very large vocabulary speech recognizer
EP0834862A2 (en) * 1996-10-01 1998-04-08 Lucent Technologies Inc. Method of key-phrase detection and verification for flexible speech understanding
KR19980038185A (en) * 1996-11-25 1998-08-05 구자홍 Natural Language Interface Agent and Its Meaning Analysis Method
US6023677A (en) * 1995-01-20 2000-02-08 Daimler Benz Ag Speech recognition method
WO2000014728A1 (en) * 1998-09-09 2000-03-16 One Voice Technologies, Inc. Network interactive user interface using speech recognition and natural language processing
JP2000148178A (en) * 1998-11-17 2000-05-26 Matsushita Electric Ind Co Ltd Speech recognision system using composite grammar network

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5621859A (en) * 1994-01-19 1997-04-15 Bbn Corporation Single tree method for grammar directed, very large vocabulary speech recognizer
US6023677A (en) * 1995-01-20 2000-02-08 Daimler Benz Ag Speech recognition method
EP0834862A2 (en) * 1996-10-01 1998-04-08 Lucent Technologies Inc. Method of key-phrase detection and verification for flexible speech understanding
KR19980038185A (en) * 1996-11-25 1998-08-05 구자홍 Natural Language Interface Agent and Its Meaning Analysis Method
WO2000014728A1 (en) * 1998-09-09 2000-03-16 One Voice Technologies, Inc. Network interactive user interface using speech recognition and natural language processing
JP2000148178A (en) * 1998-11-17 2000-05-26 Matsushita Electric Ind Co Ltd Speech recognision system using composite grammar network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112863512A (en) * 2021-01-18 2021-05-28 深圳创维-Rgb电子有限公司 Voice interaction call processing method and device, terminal equipment and storage medium
CN112863512B (en) * 2021-01-18 2024-04-30 深圳创维-Rgb电子有限公司 Voice interaction call processing method and device, terminal equipment and storage medium

Similar Documents

Publication Publication Date Title
KR101027548B1 (en) Voice browser dialog enabler for a communication system
US8145481B2 (en) System and method of performing user-specific automatic speech recognition
US8812316B1 (en) Speech recognition repair using contextual information
JP3936718B2 (en) System and method for accessing Internet content
US9196252B2 (en) Selective enablement of speech recognition grammars
CN104751847A (en) Data acquisition method and system based on overprint recognition
KR101594835B1 (en) Vehicle and head unit having voice recognizing function, and method for voice recognizning therefor
US7328159B2 (en) Interactive speech recognition apparatus and method with conditioned voice prompts
JP5887162B2 (en) Communication terminal, control method and program
US20040085970A1 (en) System and method for accessing wireless internet
KR100367579B1 (en) Internet utilization system using voice
US20020077814A1 (en) Voice recognition system method and apparatus
CN115840841A (en) Multi-modal dialog method, device, equipment and storage medium
KR20020023197A (en) A Method For Providing Data Using Natural Voice Process And The System Therefor
JP2000165489A (en) Telephone set
US20020039913A1 (en) Communication systems
CN111968630B (en) Information processing method and device and electronic equipment
KR20040032523A (en) Method and Apparatus for interfacing internet site of mobile telecommunication terminal using voice recognition
JP4049456B2 (en) Voice information utilization system
EP1524778A1 (en) Method for communicating information from a server to a user via a mobile communication device running a dialog script
KR20020080174A (en) Voice recognition apparatus and method for mobile communication device
JP2004516563A (en) How to configure the user interface
KR100432373B1 (en) The voice recognition system for independent speech processing
CN111063344B (en) Voice recognition method, mobile terminal and server
EP3035207A1 (en) Speech translation device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application