KR20040032523A - Method and Apparatus for interfacing internet site of mobile telecommunication terminal using voice recognition - Google Patents
Method and Apparatus for interfacing internet site of mobile telecommunication terminal using voice recognition Download PDFInfo
- Publication number
- KR20040032523A KR20040032523A KR1020020061710A KR20020061710A KR20040032523A KR 20040032523 A KR20040032523 A KR 20040032523A KR 1020020061710 A KR1020020061710 A KR 1020020061710A KR 20020061710 A KR20020061710 A KR 20020061710A KR 20040032523 A KR20040032523 A KR 20040032523A
- Authority
- KR
- South Korea
- Prior art keywords
- url
- server
- mobile communication
- communication terminal
- voice
- Prior art date
Links
Abstract
Description
본 발명은 음성인식을 이용한 이동통신 단말기의 인터넷 검색장치 및 방법에 관한 것으로서, 보다 상세하게는 이동통신 단말기를 통해 입력된 음성을 음성인식 서버에서 인식하여 원하는 인터넷 사이트로 이동하는 음성인식을 이용한 이동통신 단말기의 인터넷 검색장치 및 방법에 관한 것이다.The present invention relates to an internet search apparatus and method for a mobile communication terminal using voice recognition, and more particularly, a mobile terminal using voice recognition for recognizing a voice input through a mobile communication terminal and moving to a desired internet site. An internet search apparatus and method for a communication terminal.
이동통신 단말기가 보급되면서 이 이동통신 단말기에서도 인터넷 상의 정보를 이용하고자 하는 필요성이 증가하고 있으며, 이러한 이동통신 단말기는 하드웨어의 성능, 통신망의 속도, 화면의 크기, 입력장치 등이 PC와 비교하여 그 성능과 제약조건이 현저한 차이가 있어서 종래의 PC와 유선 인터넷 망을 대상으로 하는 인터넷 브라우저와 콘텐츠를 그대로 이용하기에는 문제점이 많이 있었다. 그러나, 이러한 문제점은 WAP 등과 같이 새로운 콘텐츠 형식과 입력방식(예를 들면 숫자 버튼을 이용한 네비게이션)을 통해 해결되었으나, 이동통신 단말기의 작은 화면에서 동시에 많은 메뉴와 링크를 보여주는데 한계가 있으며, 콘텐츠는 여러 단계로 이루어진 트리(Tree)형식의 계층으로 구성되어 초기에 설정된 웹 페이지의 메뉴에서 사용자가 원하는 자료를 구비한 웹 페이지로 이동하기 위해서는 연결된 링크들을 따라 특정키를 연속해서 입력해야 최종 콘텐츠에 도달할 수 있다. 따라서, URL 등의 문자의 입력과 트리를 따라 연속적으로 선택하기 위하여 특수 기능키를 클릭해야 함으로 접속에 필요한 시간이 늘어나는 문제점이 있다.With the spread of mobile communication terminals, the necessity of using information on the Internet is increasing in these mobile communication terminals, and the performance of hardware, speed of communication network, screen size, input device, etc. are compared with PCs. Due to the significant difference in performance and constraints, there are many problems in using the Internet browser and contents for the conventional PC and the wired Internet network. However, this problem has been solved through new content formats and input methods (eg, navigation using numeric buttons), such as WAP, but there are limitations in showing many menus and links at the same time on a small screen of a mobile communication terminal. In order to move from the menu of the initially set web page to the web page with the data desired by the user, it is necessary to continuously input specific keys along the linked links to reach the final content. Can be. Therefore, there is a problem in that the time required for connection is increased because a special function key must be clicked in order to continuously select characters along the tree and input of characters such as URLs.
이러한, 접속에 따른 불편함은 음성인식 기술을 이용하여 해결하려는 시도가 있었으며, 도 1에 나타낸 바와 같이, 사용자로부터 명령을 입력받는 버튼 입력부(10)와, 데이터를 저장하는 메모리(11)와, 소정의 데이터를 사용자에게 표시하는 디스플레이부(12)와, 다른 이동통신 단말기와의 데이터 송수신을 처리하는 데이터 송수신부(13)와, 상기 데이터들을 처리하는 CPU(14)와, 음향을 입력받는 마이크(16)와, 음향을 출력하는 스피커(17)를 통하여 음성의 입력 및 출력을 담당하는 음성제어부(15)로 구성된 음성인식기가 내장된 이동통신 단말기를 통해 해결하는 시도가 있었다. 그러나, 음성인식이 가능한 이동통신 단말기는 별도의 음성인식 모듈을 구비해야하며, 이러한, 음성인식이 가능한 이동통신 단말기는 상기 메모리(11)에 저장된 음성명령어와 동일한 음성 데이터만을 처리할 수 있으므로, 상기 이동통신 단말기의 저장수단의 자원을 소비하고 별도의 모듈을 구비해야 하기때문에 이동통신 단말기 내부의 공간을 소비하게 되는 문제점이 있다.Such an inconvenience caused by the connection has been attempted to be solved by using voice recognition technology. As shown in FIG. 1, a button input unit 10 receiving a command from a user, a memory 11 storing data, and A display unit 12 for displaying predetermined data to a user, a data transceiver 13 for processing data transmission and reception with another mobile communication terminal, a CPU 14 for processing the data, and a microphone for receiving sound An attempt has been made to solve the problem through a mobile communication terminal in which a voice recognizer composed of a voice controller 15 for inputting and outputting voices through the speaker 16 for outputting sound is provided. However, the mobile terminal capable of voice recognition should have a separate voice recognition module. Since the mobile terminal capable of voice recognition can process only the same voice data as the voice command stored in the memory 11, Since there is a need to consume resources of the storage means of the mobile communication terminal and have a separate module, there is a problem in that the space inside the mobile communication terminal is consumed.
도 2는 종래의 이동통신 단말기를 이용하여 인터넷에 접속하는 구성을 나타낸 구성도로서, 이동통신 단말기(20)와, 기지국(21)과, WAP 게이트웨이(22)와, 웹서버(23)로 구성된다. 상기 이동통신 단말기(20)의 상기 버튼 입력부(10)의 인터넷 접속을 위한 버튼이 입력된 경우, 상기 이동통신 단말기(20)는 상기 기지국(21)을 통하여 상기 인터넷 웹 서버(23)와의 접속을 가능하게 하는 WAP 게이트웨이(22)와 접속하여, 상기 웹 서버(23)로부터 초기 설정된 웹 페이지에 대한 데이터를 상기 데이터 송수신부(13)를 통하여 전송받아, 상기 디스플레이부(12)를 통하여 사용자에게 제공된다. 또한, 상기와 같은 구성에 Voice XML과 음성인식 기술을 사용하여 이동통신 단말기의 좁은 화면과 한정된 키 입력의 제약으로부터 벗어나 명령어나 음성을 통해 서비스를 제공할 수 있으나, 종래에 제공되던 콘텐츠나 웹 브라우저와의 호환성이 없어 독립적인 콘텐츠를 제작해야하는 문제점이 있다.2 is a block diagram showing a configuration of connecting to the Internet using a conventional mobile communication terminal, comprising a mobile communication terminal 20, a base station 21, a WAP gateway 22, and a web server 23 do. When a button for accessing the Internet of the button input unit 10 of the mobile communication terminal 20 is input, the mobile communication terminal 20 establishes a connection with the Internet web server 23 through the base station 21. It is connected to the WAP gateway 22 to enable, and receives the data for the web page initially set from the web server 23 through the data transmission and reception unit 13, and provides it to the user through the display unit 12 do. In addition, by using voice XML and voice recognition technology in the above configuration, it is possible to provide a service through a command or a voice from the limitation of a narrow screen and limited key input of a mobile communication terminal, but the content or web browser provided in the past There is a problem in that independent content must be produced because it is incompatible with.
따라서, 상기한 문제점을 해결하기 위하여 본 발명은 이동통신 단말기의 하드웨어 형식 및 무선 인터넷 콘텐츠의 형식변화 없이 사용자의 음성을 이용하여 인터넷 사이트에 접속 및 검색할 수 있는 음성인식을 이용한 이동통신단말기의 인터넷 사이트 접속장치를 제공하는 것을 목적으로 한다.Accordingly, in order to solve the above problems, the present invention provides an internet of a mobile communication terminal using voice recognition that can access and search an Internet site using a user's voice without changing the hardware format of the mobile communication terminal and the format of the wireless Internet content. It is an object to provide a site connection device.
또한, 본 발명의 다른 목적은 이동통신 단말기 사용자의 음성을 이용하여 인터넷 사이트에 접속 및 검색할 수 있는 음성인식을 이용한 이동통신단말기의 인터넷 사이트 접속방법을 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a method for accessing an internet site of a mobile communication terminal using voice recognition, which can access and search an internet site using a voice of a mobile communication terminal user.
도 1 은 종래의 일반적인 이동통신 단말기의 구성을 나타낸 블록도.1 is a block diagram showing the configuration of a conventional general mobile communication terminal.
도 2 는 종래의 이동통신 단말기를 이용하여 인터넷에 접속하는 구성을 나타낸 구성도.2 is a block diagram showing a configuration for connecting to the Internet using a conventional mobile communication terminal.
도 3 은 본 발명에 따른 음성인식을 이용한 이동통신 단말기의 인터넷 사이트 접속장치의 구성을 나타낸 구성도.Figure 3 is a block diagram showing the configuration of the Internet site access device of the mobile communication terminal using the voice recognition according to the present invention.
도 4 는 도 3의 이동통신 단말기 구성을 나타낸 블록도.4 is a block diagram showing the configuration of a mobile communication terminal of FIG.
도 5 는 도 3의 음성인식을 위한 서버의 구성을 나타낸 블록도.5 is a block diagram showing the configuration of a server for voice recognition of FIG.
도 6 은 본 발명에 따른 음성인식을 이용한 이동통신 단말기의 인터넷 사이트 접속과정을 나타낸 흐름도.6 is a flowchart illustrating a process of accessing an internet site of a mobile communication terminal using voice recognition according to the present invention.
도 7 은 도 6의 이동통신 단말기가 오프라인 상태에서 인터넷 사이트에 접속하는 과정을 나타낸 흐름도.7 is a flowchart illustrating a process of accessing an internet site in a mobile communication terminal of FIG. 6 in an offline state.
도 8 은 도 6의 이동통신 단말기가 온라인 상태에서 인터넷 사이트에 접속하는 과정을 나타낸 흐름도.8 is a flowchart illustrating a process of accessing an internet site by the mobile communication terminal of FIG. 6 in an online state.
도 9 는 도 6의 음성인식을 위한 음성인식 문법매핑 과정을 나타낸 흐름도.9 is a flowchart illustrating a speech recognition grammar mapping process for speech recognition of FIG. 6.
(도면의 주요 부분에 대한 부호의 설명)(Explanation of symbols for the main parts of the drawing)
100 : 이동통신 단말기110 : 마이크100: mobile communication terminal 110: microphone
120 : EVRC 엔코더130 : 멀티모달 모듈120: EVRC encoder 130: multi-modal module
140 : 브라우저150 : 무선 모듈140: browser 150: wireless module
200 : 멀티모달 서버210 : 네트웍 연결부200: multi-modal server 210: network connection
220 : 음성데이터 변환부230 : 음성인식 문법 매핑부220: voice data conversion unit 230: speech recognition grammar mapping unit
240 : 전역문법 매핑부250 : 타겟 URL 생성부240: global grammar mapping unit 250: target URL generation unit
260 : 데이터베이스300 : 음성인식 서버260: database 300: speech recognition server
400 : WAP 게이트웨이500 : CP 웹서버400: WAP Gateway 500: CP Web Server
상기한 목적을 달성하기 위하여, 본 발명은 무선 네트워크를 통해 인터넷에 접속하는 브라우저, 마이크로 입력되는 음성데이터를 변환하는 엔코더, 및 상기 브라우저로부터 현재 접속중인 사이트의 URL 정보와, 상기 엔코더에서 변환된 음성데이터와, 이동통신 단말기의 정보를 멀티모달 서버로 전송하는 멀티모달수단을 구비한 이동통신 단말기; 상기 이동통신 단말기에서 전송된 현재의 URL 정보로부터 음성인식에 필요한 문법을 결정하고, 상기 음성인식 문법을 상기 음성데이터와 함께 음성인식 서버로 전송하며, 상기 음성인식 서버에서 인식된 결과를 통해 접속할 타겟 URL을 생성하여 이동통신 단말기로 전송하는 멀티모달 서버; 상기 멀티모달 서버에서 전송된 음성데이터와 음성인식 문법을 이용하여 음성을 인식하고, 인식된 결과를 상기 멀티모달 서버로 전송하는 음성인식 서버; 및 상기 멀티모달 서버로부터 전송된 타겟 URL을 이용하여 상기 이동통신 단말기가 접속하는 웹 서버를 포함한다.In order to achieve the above object, the present invention provides a browser for accessing the Internet through a wireless network, an encoder for converting voice data input into a microphone, and URL information of a site currently being accessed from the browser, and the voice converted by the encoder. A mobile communication terminal having multi-modal means for transmitting data and information of the mobile communication terminal to a multi-modal server; A target to determine a grammar required for voice recognition from the current URL information transmitted from the mobile communication terminal, transmit the voice recognition grammar together with the voice data to a voice recognition server, and access through a result recognized by the voice recognition server A multimodal server generating a URL and transmitting the generated URL to a mobile communication terminal; A speech recognition server for recognizing speech using the speech data and the speech recognition grammar transmitted from the multi-modal server, and transmitting the recognized result to the multi-modal server; And a web server to which the mobile communication terminal accesses using a target URL transmitted from the multi-modal server.
또한, 본 발명은 이동통신 단말기와, 상기 이동통신 단말기에서 전송된 음성데이터와 URL을 이용하여 음성인식 문법을 매핑하고, 타겟 URL을 생성하는 멀티모달 서버와, 상기 멀티모달 서버에서 전송된 데이터를 이용하여 음성인식을 실행하는 음성인식 서버와 상기 이동통신 단말기가 접속하는 CP 웹 서버로 구성된 음성인식 이동통신 단말기의 인터넷 접속장치에 있어서, 상기 이동통신 단말기의 웹 브라우저가 실행되었는지를 판단하고, 상기 웹 브라우저가 실행된 경우 이동통신 단말기로 입력되는 음성데이터와, 현재 페이지의 URL 정보와, 상기 이동통신 단말기의정보를 멀티모달 서버로 전송하는 단계; 상기 단말기에서 전송된 현재 페이지의 URL을 이용하여 음성인식에 필요한 음성인식 문법을 생성하고, 생성된 음성인식 문법을 음성데이터와 함께 음성인식 서버로 전송하는 단계; 상기 멀티모달 서버에서 전송된 음성데이터와 음성인식 문법을 이용한 음성인식 결과를 멀티모달 서버로 전송하는 단계; 상기 인식결과를 이용하여 새로운 페이지로 이동할 타겟 URL을 생성하여 이동통신 단말기로 전송하는 단계; 상기 멀티모달 서버에서 전송된 타겟 URL을 CP 서버로 전송하여 이동할 새로운 페이지를 요청하는 단계; 및 상기 CP 서버에서 전송된 새로운 페이지를 단말기로 출력하는 단계를 포함한다.The present invention also provides a mobile communication terminal, a multimodal server for mapping a speech recognition grammar using a voice data and a URL transmitted from the mobile communication terminal, generating a target URL, and a data transmitted from the multimodal server. In the Internet access device of the voice recognition mobile communication terminal consisting of a voice recognition server for performing voice recognition using a CP web server connected to the mobile communication terminal, it is determined whether the web browser of the mobile communication terminal is executed, Transmitting voice data input to a mobile communication terminal, URL information of a current page, and information of the mobile communication terminal to a multimodal server when a web browser is executed; Generating a speech recognition grammar required for speech recognition using the URL of the current page transmitted from the terminal, and transmitting the generated speech recognition grammar to the speech recognition server together with the speech data; Transmitting a voice recognition result using the voice data transmitted from the multi-modal server and a voice recognition grammar to a multi-modal server; Generating a target URL to be moved to a new page using the recognition result and transmitting the generated target URL to a mobile communication terminal; Requesting a new page to be moved by transmitting a target URL transmitted from the multi-modal server to a CP server; And outputting a new page transmitted from the CP server to the terminal.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하면 다음과 같다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.
도 3 은 본 발명에 따른 음성인식을 이용한 이동통신 단말기의 인터넷 사이트 접속장치의 구성을 나타낸 구성도이다. 도 3에서, 웹 브라우저를 통해 인터넷에 접속하고, 음성데이터와 현재 URL(uniform resource locator)을 전송하는 이동통신 단말기(100)와, 상기 이동통신 단말기(100)에서 전송된 현재 URL을 이용하여 음성인식 문법을 매핑하고 이동할 새로운 페이지의 타겟 URL을 생성하는 멀티모달 서버(MultiModal server:200)와, 상기 멀티모달 서버(200)로부터 전송된 음성데이터와 음성인식 문법을 이용하여 음성을 인식하는 음성인식 서버(300)와 상기 이동통신 단말기(100)가 인터넷에 접속할 수 있도록 게이트웨이(400)와 CP 웹 서버(Content Provider Web Server:500)로 구성된다.3 is a block diagram showing the configuration of the Internet site access device of the mobile communication terminal using the voice recognition according to the present invention. In FIG. 3, a mobile communication terminal 100 is connected to the Internet through a web browser and transmits voice data and a current URL (uniform resource locator), and the voice is transmitted using the current URL transmitted from the mobile communication terminal 100. Multi-modal server (MultiModal server: 200) for mapping the recognition grammar and generating a target URL of the new page to move, and voice recognition using the voice data and the speech recognition grammar transmitted from the multi-modal server 200 The server 300 and the mobile communication terminal 100 are configured with a gateway 400 and a CP web server (Content Provider Web Server: 500) to access the Internet.
도 4는 도 3의 이동통신 단말기의 구성을 나타낸 블록도로서, 상기 이동통신단말기(100)는 통화부(미도시), 마이크(110), 엔코더(120), 멀티모달 모듈(130), 브라우저(140), 및 무선모듈(150)로 구성된다.4 is a block diagram showing the configuration of the mobile communication terminal of FIG. 3, wherein the mobile communication terminal 100 includes a communication unit (not shown), a microphone 110, an encoder 120, a multi-modal module 130, and a browser. 140, and a wireless module 150.
상기 엔코더(120)는 마이크(110)를 통해 입력된 음성을 압축 변환하며, 상기 엔코더(120)는 8Kbps EVRC 또는 13Kbps QCELP 이고, 이동통신 단말기의 종류에 따라 다른 종류의 엔코더를 사용할 수 있으며, 바람직하게 상기 엔코더(120)는 8Kbps EVRC 엔코더이다.The encoder 120 compresses and converts the voice input through the microphone 110, and the encoder 120 is 8Kbps EVRC or 13Kbps QCELP, and other types of encoders may be used according to the type of mobile communication terminal. Preferably, the encoder 120 is an 8 Kbps EVRC encoder.
상기 멀티모달 모듈(130)은 상기 엔코더(120)에서 압축 변환된 음성데이터와, 상기 브라우저(140)로부터 검출한 현재 페이지의 URL 정보와, 단말기 정보(예를 들면, 브라우저의 종류, 이동통신 전화번호 등)를 무선모듈(150)을 통해 음성인식 시스템(미도시)으로 전송한다.The multi-modal module 130 includes voice data compressed and converted by the encoder 120, URL information of the current page detected by the browser 140, and terminal information (eg, a type of browser, a mobile communication phone). Number, etc.) is transmitted to the voice recognition system (not shown) through the wireless module 150.
도 5 는 도 3의 음성인식을 위한 서버의 구성을 나타낸 블록도이다. 도 5에서, 음성인식을 위한 서버는 음성인식을 위하여 고유의 음성인식 문법과 인식결과에 따라 새로 이동할 타게 URL을 생성하는 멀티모달 서버(200)와 상기 멀티모달 서버(200)로부터 전송된 음성데이터와, 음성인식 문법을 이용하여 음성을 인식하고, 인식결과를 상기 멀티모달 서버(200)로 전송하는 음성인식 서버(300)로 구성된다.FIG. 5 is a block diagram illustrating a configuration of a server for voice recognition of FIG. 3. In FIG. 5, the server for speech recognition includes a multi-modal server 200 and a voice data transmitted from the multi-modal server 200 generating a target URL to be newly moved according to a unique speech recognition grammar and a recognition result for speech recognition. And a voice recognition server 300 for recognizing the voice using the voice recognition grammar and transmitting the recognition result to the multi-modal server 200.
상기 멀티모달 서버(200)는 네트웍 연결부(210)와, 음성데이터 변환부(220)와, 음성인식 문법 매핑부(230)와, 전역문법 매핑부(240)와, 타겟 URL 생성부(250)와, 데이터 베이스(260)로 구성된다.The multi-modal server 200 includes a network connection unit 210, a voice data conversion unit 220, a speech recognition grammar mapping unit 230, a global grammar mapping unit 240, and a target URL generation unit 250. And a database 260.
상기 네트웍 연결부(210)는 이동통신 단말기(미도시)와 접속하여 데이터를 송수신하며, 바람직하게 TCP/IP 프로토콜을 이용하여 접속한다.The network connection unit 210 is connected to a mobile communication terminal (not shown) to transmit and receive data, preferably by using the TCP / IP protocol.
상기 음성데이터 변환부(220)는 상기 네트웍 연결부(210)와 연결되며, 상기 네트웍 연결부(210)에서 전송된 음성데이터를 음성인식 엔진이 처리할 수 있도록 변환하며, 바람직하게 PCM형식으로 변환되고, 음성인식 엔진이 이동통신 단말기에서 전송한 압축 포멧(예를 들면, EVRC 포맷)을 직접 처리할 수 있는 경우 상기 변환과정을 생략 가능하다.The voice data conversion unit 220 is connected to the network connection unit 210, and converts the voice data transmitted from the network connection unit 210 so that the voice recognition engine can process, preferably converted to PCM format, If the speech recognition engine can directly process the compression format (for example, EVRC format) transmitted from the mobile communication terminal, the conversion process can be omitted.
상기 음성인식 문법 매핑부(230)는 상기 네트웍 연결부(210)에서 전송된 URL로부터 그 페이지에 유효한 고유 음성인식 문법을 검출하여 상기 전송된 URL과 매핑하는 것으로서, 소정의 음성명령에 대하여 현재 페이지에 관련하여 발생되어야 할 조건을 매핑한다. 즉 음성인식 문법은 소정의 URL에 대하여 발생되어야 할 소정의 음성명령을 명시하며, 상기 URL에서 입력 가능한 음성명령 리스트가 음성인식 문법이 된다. 예를 들면, 주식 시세를 출력하는 페이지에서는 회사의 이름을 음성 입력하면, 음성 입력된 회사의 현재 주가를 알려줄 수 있도록 모든 상장사의 회사이름의 리스트가 음성인식 문법이 되어, 상기 음성인식 문법과 입력된 URL이 매핑된다.The speech recognition grammar mapping unit 230 detects a valid speech recognition grammar valid for the page from the URL transmitted from the network connection unit 210 and maps it to the transmitted URL. Map the conditions that should occur in relation. That is, the voice recognition grammar specifies a predetermined voice command to be generated for a predetermined URL, and the list of voice commands inputted from the URL becomes the voice recognition grammar. For example, in a page that outputs a stock quote, when a voice name is inputted, the list of company names of all listed companies becomes a voice recognition grammar so that the current stock price of the voice input company can be reported. URLs are mapped.
상기 전역문법 매핑부(240)는 상기 음성인식 매핑부(230)에서 결정된 고유한 음성인식 문법과, 브라우저(미도시)의 현재 페이지에 관계없이 공통적으로 유효한 음성 명령(예를 들면, 도움말, 북마크 등)을 나타내는 음성인식 문법과 매핑한다.The global grammar mapping unit 240 may have a unique voice recognition grammar determined by the voice recognition mapping unit 230 and a voice command that is commonly valid regardless of the current page of the browser (eg, help, bookmark). Maps to a speech recognition grammar.
상기 타겟 URL 생성부(250)는 상기 네트웍 연결부(210)와 상기 음성인식 서버(300)와 연결되며 전송된 단말기 정보와 음성인식 결과에 따른 명령어를 이용하여 상기 명령어가 지정하는 URL을 이동할 타겟 URL로 생성하여 상기 네트웍연결부(210)로 전송한다. 예를 들면, "주식시세" 사이트에서 "삼성전자"를 음성 인식한 경우 주식시세 사이트의 하위 사이트 중에서 삼성전자의 현재 주식 시세를 볼 수 있는 URL을 타겟 URL로 설정한다.The target URL generation unit 250 is connected to the network connection unit 210 and the voice recognition server 300 and target URL to move the URL designated by the command using a command according to the transmitted terminal information and the voice recognition result Create and transmit to the network connection unit 210. For example, when the "stock quote" site has a voice recognition of "Samsung Electronics", the target URL is set to view the current stock quotes of Samsung Electronics among sub-sites of the stock quote site.
상기 음성인식 서버(300)는 상기 멀티모달 서버(200)와 연결되며, 상기 멀티모달 서버(200)에서 전송된 음성데이터와 음성인식 문법을 이용하여 음성을 인식하며, 본 발명에서는 공지된 음성인식 시스템을 사용한다.The speech recognition server 300 is connected to the multi-modal server 200, and recognizes the speech using the speech data and the speech recognition grammar transmitted from the multi-modal server 200, the speech recognition known in the present invention Use the system.
도 6 은 본 발명에 따른 음성인식을 이용한 이동통신 단말기의 인터넷 사이트 접속과정을 나타낸 흐름도이다. 도 3 내지 도 6에서, 이동통신 단말기(100)의 제어부(미도시)는 웹 브라우저가 실행되었는지를 판단하고(S10), 웹 브라우저(140)가 실행되지 않은 경우 도 7에 나타낸 바와 같이, 특정 키 입력이 발생하였는지 검출하여(S11), 특정 키 입력이 발생한 경우 마이크로 입력되는 음성을 엔코더에서 변환하여 저장하고, 상기 저장된 정보를 초기 설정된 페이지의 URL(예를 들면, "네이트"의 URL http://wap.nate.com)과 함께 멀티모달 서버로 전송(S13)하며, 상기 S11단계에서, 특정 키 입력이 발생하지 않은 경우 일반적인 이동통신 단말기의 기능을 수행하는 단계(S12)를 더 포함한다.6 is a flowchart illustrating a process of accessing an internet site of a mobile communication terminal using voice recognition according to the present invention. 3 to 6, the controller (not shown) of the mobile communication terminal 100 determines whether the web browser is executed (S10), and when the web browser 140 is not executed, as shown in FIG. Detecting whether a key input has occurred (S11), when a specific key input has occurred, the voice input into the microphone is converted and stored by the encoder, and the stored information is a URL of an initially set page (for example, a URL of "nate" http: // wap.nate.com) and transmits to the multi-modal server (S13), and further comprises the step (S12) of performing a function of a general mobile terminal when a specific key input does not occur in step S11. .
상기 S10단계에서, 웹 브라우저(140)가 실행된 경우 이동통신 단말기(100)로 입력되는 음성데이터와, 현재 페이지의 URL 정보와, 상기 이동통신 단말기의 정보를 멀티모달 서버(200)로 전송하는 단계(S20)를 수행한다.In step S10, when the web browser 140 is executed, voice data input to the mobile communication terminal 100, URL information of the current page, and information of the mobile communication terminal are transmitted to the multimodal server 200. Step S20 is performed.
상기 S20단계는 도 8에 나타낸 바와 같이, 마이크(110)로부터 입력이 발생하였는지를 판단하여(S21), 음성입력이 발생하지 않은 경우 일반적인 웹 서핑을 수행하고(S22), 상기 S21단계에서, 음성입력이 발생한 경우 상기 마이크(110)로부터 입력되는 음성을 엔코더(120)에서 변환하여 멀티모달 모듈(130)로 전송(S23)하며, 상기 S23단계에서 변환된 음성데이터가 전송되면, 멀티모달 모듈(130)은 현재 실행중인 웹 브라우저(140)로부터 브라우저 정보와 현재 페이지의 URL 정보를 요청하고(S24), 상기 S23단계에서 변환된 음성데이터와 상기 S24단계에서 획득한 현재 페이지의 URL 정보와 이동통신 단말기 정보(예를 들면, 브라우저 종류, 이동통신 전화번호 등)를 무선모듈(150)을 통해 멀티모달 서버(200)로 전송(S25)한다. 또한, 상기 S21단계는 웹 브라우저(140)가 실행되고, 특정 키 값이 입력된 이후 수행할 수도 있다.In step S20, as shown in FIG. 8, it is determined whether an input is generated from the microphone 110 (S21). When no voice input occurs, general web surfing is performed (S22). In step S21, the voice input is performed. In this case, the voice input from the microphone 110 is converted by the encoder 120 and transmitted to the multi-modal module 130 (S23). When the converted voice data is transmitted in step S23, the multi-modal module 130 is transmitted. ) Requests the browser information and the URL information of the current page from the currently running web browser 140 (S24), the voice data converted in step S23 and the URL information of the current page obtained in step S24 and the mobile communication terminal. Information (eg, browser type, mobile communication phone number, etc.) is transmitted to the multimodal server 200 through the wireless module 150 (S25). In addition, the step S21 may be performed after the web browser 140 is executed and a specific key value is input.
상기 S20단계를 수행한 후, 상기 단말기(100)에서 전송된 현재 페이지의 URL을 이용하여 음성인식에 필요한 음성인식 문법을 생성하고, 생성된 음성인식 문법을 음성데이터와 함께 음성인식 서버로(300) 전송한다(S30).After performing the step S20, using the URL of the current page transmitted from the terminal 100 to generate a speech recognition grammar required for speech recognition, the generated speech recognition grammar with the voice data to the speech recognition server (300) ) S30.
상기 S30단계에서는 도 9에 나타낸 바와 같이, 음성인식을 요청하는 이동통신 단말기(100)와 접속하여 상기 이동통신 단말기(100)로부터 전송되는 음성데이터와 현재의 URL과 단말기 정보를 수신하고(S31), 상기 S31단계에서 수신된 현재의 URL 정보로부터 각 URL에 대응하는 고유 음성인식 문법과 매핑하며(S33), 상기 S33단계에서 매핑된 고유 음성인식 문법과 어느 페이지에서나 유효한 전역 음성인식 문법을 결합(S34)한다.In step S30, as shown in FIG. 9, the mobile terminal 100 requests voice recognition to receive voice data transmitted from the mobile communication terminal 100, the current URL, and terminal information (S31). In operation S33, a unique speech recognition grammar corresponding to each URL is mapped from the current URL information received in step S31, and the unique speech recognition grammar mapped in step S33 is combined with a global speech recognition grammar valid in any page ( S34).
상기 S33단계는 멀티 모달 서버(200)의 데이터베이스(260)에 저장된 각 URL과 상기 데이터베이스(260)에 저장된 상기 URL에 대응하는 음성인식 문법을 이용하여 매핑하는 방법과, 멀티모달 서버(200)에는 URL만 저장하고, 상기 URL에 대응하는 고유한 음성인식 문법은 외부 CP 서버(500)에 저장하여 필요한 경우 URL이 지정하는 외부 CP 서버(500)의 음성인식 문법을 매핑하는 방법과, 화면 표시용 스크립트 언어의 문법에 최소한의 확장을 하거나 또는, 확장을 하지 않더라도 메타(meta)태그 또는 스크립트의 주석문 내에 소정의 표식을 하여 그 페이지에 유효한 음성인식 문법에 대한 URL을 지정하고, 화면 표시용 스크립트를 CP의 웹서버로부터 획득하여 음성인식 문법의 URL을 검출하고, 상기 URL을 사용하여 멀티모달 서버(200)의 데이터베이스(260)에 저장된 음성인식 문법을 매핑하는 방법 중에서 어느 하나의 방법을 이용하여 매핑하며, 바람직하게는 모든 데이터를 멀티모달 서버에서 매핑한다.The step S33 is a method of mapping using the speech recognition grammar corresponding to each URL stored in the database 260 of the multi-modal server 200 and the URL stored in the database 260, the multi-modal server 200 Only the URL is stored, and the unique speech recognition grammar corresponding to the URL is stored in the external CP server 500, and if necessary, a method for mapping the speech recognition grammar of the external CP server 500 specified by the URL, and for screen display. If you do not extend the grammar of the scripting language with minimal or no extension, specify a URL in the meta tag or the comment of the script to specify a URL for valid speech recognition grammar on the page, and display the script for the screen display. The speech recognition grammar obtained from the web server of the CP is detected, and the speech recognition grammar stored in the database 260 of the multi-modal server 200 using the URL. Maps by using any of the methods from the method of mapping, preferably maps all of the data from the multi-modal server.
상기 S30단계는 이동통신 단말기(100)에서 전송된 음성데이터를 음성인식 엔진에 처리할 수 있도록 PCM 변환을 하는 단계를 더 포함한다.The step S30 further includes a PCM conversion to process the voice data transmitted from the mobile communication terminal 100 to the voice recognition engine.
상기 S30단계를 수행한 후 상기 음성인식 서버(300)에서 전송된 음성데이터와 음성인식 문법을 이용하여 전송된 음성을 인식하고, 인식된 결과를 멀티모달 서버(200)로 전송한다(S40). 상기 S40단계에서 사용하는 음성인식 방법은 이미 공지된 음성인식 방법을 사용할 수도 있으며, 바람직하게는 화자독립 음성인식 방법이다.After performing the step S30, the voice is transmitted using the voice data transmitted from the voice recognition server 300 and the voice recognition grammar, and the recognized result is transmitted to the multi-modal server 200 (S40). The speech recognition method used in the step S40 may use a known speech recognition method, preferably speaker-independent speech recognition method.
상기 S40단계에서 전송된 음성 인식결과를 이용하여 새로운 페이지로 이동할 타겟 URL을 생성하여 이동통신 단말기(100)로 전송한다(S50). 상기 S50단계에서 타겟 URL은 기본적으로 음성인식 문법에서 지정되지만, 단순히 고정된 URL이 아니라치환되는 변수를 가질 수도 있다. 예를 들면, 주식 시세 페이지에서 인식된 명령어가 "삼성전자"인 경우 타겟 URL은 http://stock.nate.com?name=${x}에서 상기 ${x}에 인식된 "삼성전자" 단어가 삽입된다. 또한, 한 문장에서 하나 이상의 핵심어를 추출해 낼 수 있는 멀티-슬롯(multi-slot) 음성인식 엔진을 사용하는 경우에는 슬롯 이름을 타겟 URL의 query변수 이름으로 매핑 할 수 있다. 예를 들면, "내일 6시 30분에 모닝콜이요"라는 음성이 입력되면, 상기 음성을 인식한 음성인식 엔진은 생성되는 타겟 URL의 http://pim.nate.com?action=newitem&time=${t}&item=${item}&. 의 ${t}에는 "내일 6시 30분", ${item}에는 "모닝콜"을 삽입한다.Using the speech recognition result transmitted in step S40, a target URL to be moved to a new page is generated and transmitted to the mobile communication terminal 100 (S50). In step S50, the target URL is basically specified in the speech recognition grammar, but may have a variable that is not simply a fixed URL. For example, if the command recognized in the stock quote page is "Samsung", the target URL is "Samsung" recognized in $ {x} above at http://stock.nate.com?name=${x}. The word is inserted. In addition, when using a multi-slot speech recognition engine that can extract one or more keywords from a sentence, the slot name can be mapped to the query variable name of the target URL. For example, if a voice of "Wake up call tomorrow at 6:30" is inputted, the speech recognition engine that recognizes the voice may generate a http://pim.nate.com?action=newitem&time=$ { t} & item = $ {item} &. In the $ {t} "tomorrow 6:30" and $ {item} in the "wake".
상기 S50단계를 수행한 후 생성된 타겟 URL은 CP 서버(500)로 전송하여 이동할 새로운 페이지를 요청하면(S60), CP 서버(500)는 상기 새로운 페이지의 정보를 검색하여 이동할 새로운 페이지의 URL정보를 이동통신 단말기(100)로 전송하여 상기 이동통신 단말기의 디스플레이 장치(미도시)를 통해 출력(S70)한다.When the target URL generated after performing step S50 is transmitted to the CP server 500 and requests a new page to be moved (S60), the CP server 500 searches for the information of the new page and URL information of the new page to be moved. Is transmitted to the mobile communication terminal 100 and output through a display device (not shown) of the mobile communication terminal (S70).
상기한 바와 같이, 본 발명은 이동통신 단말기를 사용하는 무선 인터넷 사용자가 키패드 또는 음성을 이용하여 편리하게 소망하는 정보를 이용할 수 있는 장점이 있으며, 이미 사용중인 이동통신 단말기의 하드웨어와 무선 인터넷 콘텐츠의 형식을 수정하지 않고 사용할 수 있는 장점이 있다.As described above, the present invention has the advantage that a user of a wireless Internet using a mobile communication terminal can conveniently use desired information using a keypad or voice. It has the advantage that it can be used without modifying the format.
이상에서는, 본 발명을 특정의 바람직한 실시예에 대해서 도시하고 설명하였다. 그러나, 본 발명은 상술한 실시예에만 한정되는 것은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이하의 특허청구범위에 기재된 본 발명의 기술적 사상의 요지를 벗어남이 없이 얼마든지 다양하게 변경 실시할 수 있을 것이다.In the above, the present invention has been illustrated and described with respect to certain preferred embodiments. However, the present invention is not limited only to the above-described embodiments, and those skilled in the art to which the present invention pertains may vary without departing from the spirit of the technical idea of the present invention described in the claims below. It will be possible to carry out the change.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2002-0061710A KR100486030B1 (en) | 2002-10-10 | 2002-10-10 | Method and Apparatus for interfacing internet site of mobile telecommunication terminal using voice recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2002-0061710A KR100486030B1 (en) | 2002-10-10 | 2002-10-10 | Method and Apparatus for interfacing internet site of mobile telecommunication terminal using voice recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20040032523A true KR20040032523A (en) | 2004-04-17 |
KR100486030B1 KR100486030B1 (en) | 2005-04-29 |
Family
ID=37332413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-2002-0061710A KR100486030B1 (en) | 2002-10-10 | 2002-10-10 | Method and Apparatus for interfacing internet site of mobile telecommunication terminal using voice recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100486030B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005114999A1 (en) * | 2004-04-24 | 2005-12-01 | Electronics And Telecommunications Research Institute | Apparatus and method for processing multimodal data broadcasting and system and method for receiving multimodal data broadcasting |
KR100679394B1 (en) * | 2005-02-21 | 2007-02-05 | 에스케이 텔레콤주식회사 | System for Searching Information Using Multi-Modal Platform And Method Thereof |
KR100702789B1 (en) * | 2005-03-02 | 2007-04-03 | 에스케이 텔레콤주식회사 | Mobile Service System Using Multi-Modal Platform And Method Thereof |
KR100826778B1 (en) * | 2006-06-14 | 2008-04-30 | 에스케이 텔레콤주식회사 | Wireless mobile for multimodal based on browser, system for generating function of multimodal based on mobil wap browser and method thereof |
EP2143099A2 (en) * | 2007-04-02 | 2010-01-13 | Google Inc. | Location-based responses to telephone requests |
US9251786B2 (en) | 2007-08-24 | 2016-02-02 | Samsung Electronics Co., Ltd. | Method, medium and apparatus for providing mobile voice web service |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8135333B2 (en) * | 2008-12-23 | 2012-03-13 | Motorola Solutions, Inc. | Distributing a broadband resource locator over a narrowband audio stream |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10177469A (en) * | 1996-12-16 | 1998-06-30 | Casio Comput Co Ltd | Mobile terminal voice recognition, database retrieval and resource access communication system |
KR100385442B1 (en) * | 2000-02-29 | 2003-05-27 | 이만균 | System for processing a voice internet command language |
KR100367579B1 (en) * | 2000-04-06 | 2003-01-10 | 소리시(주) | Internet utilization system using voice |
JP2002044256A (en) * | 2000-05-17 | 2002-02-08 | Naoyuki Miyayama | Portable telephone internet information/voice retrieval system |
KR20020057045A (en) * | 2000-12-30 | 2002-07-11 | 구자홍 | Internet-searching method in mobile wireless terminal using voice recognition |
KR100424508B1 (en) * | 2001-03-16 | 2004-03-26 | (주)옴니텔 | Method to connect wireless internet sites using asr |
-
2002
- 2002-10-10 KR KR10-2002-0061710A patent/KR100486030B1/en not_active IP Right Cessation
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005114999A1 (en) * | 2004-04-24 | 2005-12-01 | Electronics And Telecommunications Research Institute | Apparatus and method for processing multimodal data broadcasting and system and method for receiving multimodal data broadcasting |
KR100679394B1 (en) * | 2005-02-21 | 2007-02-05 | 에스케이 텔레콤주식회사 | System for Searching Information Using Multi-Modal Platform And Method Thereof |
KR100702789B1 (en) * | 2005-03-02 | 2007-04-03 | 에스케이 텔레콤주식회사 | Mobile Service System Using Multi-Modal Platform And Method Thereof |
KR100826778B1 (en) * | 2006-06-14 | 2008-04-30 | 에스케이 텔레콤주식회사 | Wireless mobile for multimodal based on browser, system for generating function of multimodal based on mobil wap browser and method thereof |
US8856005B2 (en) | 2007-04-02 | 2014-10-07 | Google Inc. | Location based responses to telephone requests |
US9858928B2 (en) | 2007-04-02 | 2018-01-02 | Google Inc. | Location-based responses to telephone requests |
AU2008232435B2 (en) * | 2007-04-02 | 2014-01-23 | Google Llc | Location-based responses to telephone requests |
US8650030B2 (en) | 2007-04-02 | 2014-02-11 | Google Inc. | Location based responses to telephone requests |
EP2143099A2 (en) * | 2007-04-02 | 2010-01-13 | Google Inc. | Location-based responses to telephone requests |
US11854543B2 (en) | 2007-04-02 | 2023-12-26 | Google Llc | Location-based responses to telephone requests |
US9600229B2 (en) | 2007-04-02 | 2017-03-21 | Google Inc. | Location based responses to telephone requests |
EP2143099A4 (en) * | 2007-04-02 | 2013-01-09 | Google Inc | Location-based responses to telephone requests |
US10163441B2 (en) | 2007-04-02 | 2018-12-25 | Google Llc | Location-based responses to telephone requests |
EP3462451A1 (en) * | 2007-04-02 | 2019-04-03 | Google LLC | Location-based responses to telephone requests |
US10431223B2 (en) | 2007-04-02 | 2019-10-01 | Google Llc | Location-based responses to telephone requests |
US10665240B2 (en) | 2007-04-02 | 2020-05-26 | Google Llc | Location-based responses to telephone requests |
US11056115B2 (en) | 2007-04-02 | 2021-07-06 | Google Llc | Location-based responses to telephone requests |
US9251786B2 (en) | 2007-08-24 | 2016-02-02 | Samsung Electronics Co., Ltd. | Method, medium and apparatus for providing mobile voice web service |
Also Published As
Publication number | Publication date |
---|---|
KR100486030B1 (en) | 2005-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1125279B1 (en) | System and method for providing network coordinated conversational services | |
US7151763B2 (en) | Retrieving voice-based content in conjunction with wireless application protocol browsing | |
US7003463B1 (en) | System and method for providing network coordinated conversational services | |
EP1104155A2 (en) | Voice recognition based user interface for wireless devices | |
US20030161298A1 (en) | Multi-modal content and automatic speech recognition in wireless telecommunication systems | |
US20020091527A1 (en) | Distributed speech recognition server system for mobile internet/intranet communication | |
JPH10133847A (en) | Mobile terminal system for voice recognition, database search, and resource access communications | |
KR100486030B1 (en) | Method and Apparatus for interfacing internet site of mobile telecommunication terminal using voice recognition | |
JPH10177469A (en) | Mobile terminal voice recognition, database retrieval and resource access communication system | |
KR100826778B1 (en) | Wireless mobile for multimodal based on browser, system for generating function of multimodal based on mobil wap browser and method thereof | |
JP2003271195A (en) | Interaction system and interaction controller | |
CN108881508B (en) | Voice Domain Name System (DNS) unit based on block chain | |
CN1235387C (en) | Distributed speech recognition for internet access | |
KR100367579B1 (en) | Internet utilization system using voice | |
US20020077814A1 (en) | Voice recognition system method and apparatus | |
JPH10177468A (en) | Mobile terminal voice recognition and data base retrieving communication system | |
US20020039913A1 (en) | Communication systems | |
KR20020057045A (en) | Internet-searching method in mobile wireless terminal using voice recognition | |
KR100702789B1 (en) | Mobile Service System Using Multi-Modal Platform And Method Thereof | |
JP2003316803A (en) | Portable terminal device and service providing system | |
KR20020073357A (en) | Method of connecting wireless internet sites using ASR | |
KR20030006837A (en) | Method for Information Searching using Voice in Wire/Wireless Network | |
KR20010044510A (en) | Voice based DNS system and method | |
KR20050114551A (en) | Method and system for searching map using speech recognition | |
KR20030086075A (en) | Method for serving voice DNS and apparatus thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130125 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20140210 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20150213 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20160325 Year of fee payment: 12 |
|
FPAY | Annual fee payment |
Payment date: 20170320 Year of fee payment: 13 |
|
LAPS | Lapse due to unpaid annual fee |