KR20060089288A - Distribute speech recognition system - Google Patents
Distribute speech recognition system Download PDFInfo
- Publication number
- KR20060089288A KR20060089288A KR1020050009883A KR20050009883A KR20060089288A KR 20060089288 A KR20060089288 A KR 20060089288A KR 1020050009883 A KR1020050009883 A KR 1020050009883A KR 20050009883 A KR20050009883 A KR 20050009883A KR 20060089288 A KR20060089288 A KR 20060089288A
- Authority
- KR
- South Korea
- Prior art keywords
- recognition
- word
- voice
- feature data
- distributed
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A24—TOBACCO; CIGARS; CIGARETTES; SIMULATED SMOKING DEVICES; SMOKERS' REQUISITES
- A24B—MANUFACTURE OR PREPARATION OF TOBACCO FOR SMOKING OR CHEWING; TOBACCO; SNUFF
- A24B3/00—Preparing tobacco in the factory
- A24B3/08—Blending tobacco
Abstract
본 발명은 텔레매틱스 시스템의 정보 제공 시스템에 관한 것으로, 특히 원격지의 분산 음성 인식과 국부 음성인식을 동시에 수행하고 시간적으로 빠르거나 정확하게 인식된 결과를 사용자에 의해 선택할 수 있는 분산 음성인식 시스템을 이용하여 텔레매틱스 시스템의 서비스 센터에서 제공하는 정보들을 수신하는 분산 음성 인식 시스템을 이용한 텔레매틱스 시스템의 정보 제공 시스템 및 방법에 관한 것이다. 이러한 본 발명은 발화된 음성어로부터 상기 음성의 음성 특징을 검출하여 음성 특징데이터를 생성하고, 상기 음성 특징데이터를 생성하여 전송하며, 상기 음성 특징데이터의 전송에 응답하여 상기 음성어에 대한 정보를 수신하여 사용자에게 통보하는 텔레매틱스 단말기와, 상기 음성 특징데이터를 수신하고 상기 음성 특징데이터를 이용하여 음성인식을 수행하여 음성인식된 인식어를 전송하는 분산 음성 인식 서버와, 상기 인식어를 수신받고 상기 인식어에 상응하는 정보를 찾아 전송하는 데이터베이스 서버와, 상기 텔레매틱스 단말기로부터 음성 특징데이터를 수신하여 상기 분산 음성 인식 서버로 전송하고 상기 음성 특징데이터의 전송에 응답하여 상기 인식어가 입력하면 상기 데이터베이스 서버로 전송하며 상기 인식어 전송에 응답하여 상기 데이터베이스 서버로부터 상기 인식어에 대한 정보가 수신되면 상기 텔레매틱스 단말기로 전송하는 웹 서버로 이루어진다.The present invention relates to an information providing system of a telematics system. In particular, the present invention relates to a telematics system using a distributed speech recognition system capable of simultaneously performing a remote speech recognition and a local speech recognition at a remote location and selecting a result that is quickly or accurately recognized by a user. An information providing system and method for a telematics system using a distributed speech recognition system for receiving information provided by a service center of a system. The present invention detects a voice feature of the voice from the spoken voice word to generate voice feature data, generates and transmits the voice feature data, and transmits the information about the voice word in response to the transmission of the voice feature data. A telematics terminal for receiving and notifying a user, a distributed speech recognition server for receiving the speech feature data and performing speech recognition using the speech feature data to transmit a speech recognition recognition word, and receiving the recognition word A database server for finding and transmitting information corresponding to a recognized word, and receiving voice feature data from the telematics terminal and transmitting the received voice feature data to the distributed voice recognition server, and inputting the recognized word to the database server in response to the transmission of the voice feature data. In response to the recognition word transmission. When information is received from the database server for the recognized word comprises a Web server that is transmitted to the telematics terminal.
텔레매틱스, 음성인식, DSR, 웹 서버Telematics, Speech Recognition, DSR, Web Server
Description
도 1은 본 발명에 따른 텔레매틱스 시스템의 분산 음성 인식 시스템의 구성을 나타내는 도면1 is a diagram illustrating a configuration of a distributed speech recognition system of a telematics system according to the present invention.
도 2는 본 발명의 정보요청을 위한 제1실시 예에 따른 텔레매틱스 시스템의 분산 음성 인식 방법을 나타내는 절차도2 is a flowchart illustrating a distributed speech recognition method of a telematics system according to a first embodiment for requesting information of the present invention;
도 3은 본 발명의 정보요청을 위한 제2실시 예에 따른 텔레매틱스 시스템의 분산 음성 인식 방법을 나타내는 절차도3 is a flowchart illustrating a distributed speech recognition method of a telematics system according to a second embodiment for requesting information of the present invention;
도 4는 본 발명에 따른 텔레매틱스 단말기의 구성을 나타내 도면4 is a diagram showing the configuration of a telematics terminal according to the present invention;
도 5는 본 발명의 제2실시 예에 따른 텔레매틱스 단말기에서의 제1 분산 음성 인식 방법을 나타내는 흐름도5 is a flowchart illustrating a first distributed speech recognition method in a telematics terminal according to a second embodiment of the present invention.
도 6은 본 발명의 제2실시 예에 따른 텔레매틱스 단말기에서의 제2 분산 음성 인식 방법을 나타낸 흐름도6 is a flowchart illustrating a second distributed speech recognition method in a telematics terminal according to a second embodiment of the present invention.
본 발명은 텔레매틱스 시스템의 정보 제공 시스템에 관한 것으로, 특히 원격지의 분산 음성 인식과 국부 음성인식을 동시에 수행하고 시간적으로 빠르거나 정확하게 인식된 결과를 사용자에 의해 선택할 수 있는 분산 음성인식 시스템을 이용하여 텔레매틱스 시스템의 서비스 센터에서 제공하는 정보들을 수신하는 텔레매틱스 시스템의 정보 제공 시스템 및 방법에 관한 것이다.The present invention relates to an information providing system of a telematics system. In particular, the present invention relates to a telematics system using a distributed speech recognition system capable of simultaneously performing a remote speech recognition and a local speech recognition at a remote location and selecting a result that is quickly or accurately recognized by a user. An information providing system and method for a telematics system for receiving information provided by a service center of the system.
일반적으로, 텔레매틱스(Telematics) 시스템은 통신(Telecommunication)과 정보과학(Informatics)의 합성어로서, 이동 통신 방식과 위치 추적 방식과 인터넷을 차량에 접목하여 차량 사고 발생 혹은 차량 도난 발생을 검출하고, 차량 운전 경로를 안내하며, 각종 기타 정보 등을 차량 운전자에게 제공하는 시스템이다.In general, a telematics system is a compound word of telecommunication and informatics, and combines a mobile communication method, a location tracking method, and the internet with a vehicle to detect a vehicle accident or theft of a vehicle and drive a vehicle. It is a system that guides the route and provides various other information to the vehicle driver.
즉, 상기 차량용 텔레매틱스 시스템은 이동 통신과 위성 위치 확인 시스템(GPS: Global Positioning System, 이하 "GPS"라 칭하기로 한다) 위성을 사용하는 GPS를 기반으로 차량을 통해 정보를 제공하는 시스템이다. 따라서 상기 차량용 텔레매틱스 시스템은 상기 GPS와 무선 통신망과 인터넷 망을 사용하여 차량 운전자에게 교통 정보와, 응급 상황에 대한 대처와, 원격 차량 진단과, 인터넷 사용(일 예로 금융 거래와, 뉴스 제공 및 e-메일 송수신등) 등 각종 이동 통신 서비스를 제공할 예정이다.That is, the vehicle telematics system is a system for providing information through a vehicle based on a GPS using a mobile communication and a satellite positioning system (GPS: Global Positioning System (GPS)) satellite. Accordingly, the vehicle telematics system uses the GPS, the wireless communication network, and the Internet network to provide vehicle drivers with traffic information, response to emergency situations, remote vehicle diagnosis, Internet use (eg, financial transactions, news provision, and e- It will provide various mobile communication services such as e-mail transmission and reception.
차량의 특성 상 상기의 서비스들은 운전중에 이용하는 경우가 많다. 그러나 운전중에 상기 서비스들을 이용하거나 조작하기 위해 차량에 설치되는 텔레매틱스 단말기를 운전자가 직접 조작하는 경우 운전자의 시야가 전방으로부터 멀어짐에 따 라 사고가 발생할 수 있다.Due to the characteristics of the vehicle, the above services are often used while driving. However, when the driver directly manipulates a telematics terminal installed in the vehicle to use or operate the services while driving, an accident may occur as the driver's field of view moves away from the front.
이러한 문제점으로 인해 새로운 입력 시스템이 필요하다. 이런 문제점의 대안으로 음성인식 시스템이 텔레매틱스 단말기에 적용될 예정이다.This problem requires a new input system. As an alternative to this problem, a voice recognition system will be applied to the telematics terminal.
통상적으로 음성인식 시스템을 구현하기 위해서는 음성인식을 위한 음성인식 데이터베이스(Database)가 구축되어야 한다. 상기 음성인식 시스템의 인식률을 높이기 위해서 상기 데이터베이스는 많은 음성 음소 데이터, 음성 특징 데이터 및 운율 데이터 등의 음성데이터 정보들이 많이 등록되어 있어야 한다. 많은 정보들을 등록하기 위해서는 상기 음성인식 데이터베이스의 용량이 커져야 한다.In general, in order to implement a speech recognition system, a speech recognition database for speech recognition should be established. In order to increase the recognition rate of the speech recognition system, the database should be registered with a lot of voice data information such as voice phoneme data, voice feature data, and rhyme data. In order to register a lot of information, the capacity of the voice recognition database must be increased.
그러나 텔레매틱스 단말기는 비교적 소형의 장치로서 그 저장장치의 용량에 제한을 받게 된다. 따라서 텔레매틱스 단말기에서 음성 인식 시스템의 음성인식 데이터베이스의 용량 또한 제한 받으므로 등록되는 정보들도 적어질 수밖에 없다.However, telematics terminals are relatively small devices that are limited in their storage capacity. Therefore, since the capacity of the speech recognition database of the speech recognition system in the telematics terminal is limited, the registered information is also reduced.
또한, 음성 인식을 수행하기 위해서는 인식대상 단어가 오백단어 이상이 될 경우 3~4Mbytes의 많은 계산량과 메모리 자원이 필요하다. 또한, 음성인식을 위한 계산에서 부동소수점 연산이 어려워 고정 소수점으로 변환하여 계산함에 따라 CPU의 부이 클 뿐만 아니라 음성 인식률이 떨어진다.In addition, in order to perform speech recognition, when the recognition target word is more than five hundred words, a large amount of computation and memory resources of 3-4 Mbytes are required. In addition, the floating point operation is difficult in the calculation for speech recognition, so that the calculation is performed by converting to fixed point.
이러한 문제점으로 음성인식의 부담을 줄이기 위해 최근 분산 음성 인식(Distributed Speech Recognition) 처리 기술이 각광을 받고 있다. 상기 분산 음성 인식이란 음성을 입력받는 단말기가 입력된 음성신호의 음성특징을 검출하여 데이터화 하고(이하 "음성 특징 데이터"라 함)하고, 상기 음성 특징 데이터를 원격지의 음성 인식 서버에 보내 음성인식 기능을 수행하게 하고 그 인식 결과를 단말기가 받으므로 텔레매틱스 단말기의 자원 부담이 경감된다.In order to reduce the burden of speech recognition, distributed speech recognition processing technology has been in the spotlight. The distributed speech recognition means that a terminal receiving a voice detects and characterizes a voice feature of an input voice signal (hereinafter referred to as "voice feature data"), and sends the voice feature data to a remote voice recognition server. And the terminal receives the recognition result, thereby reducing the resource burden of the telematics terminal.
상기 분산음성인식 기술을 좀 더 구체적으로 설명하면, 무선통신 환경하에서는 음성의 압축 전송 및 전송 에러로 인하여 음성인식 성능이 현저히 저하된다. 분산 음성 인식이란 이러한 문제를 해결하기 위하여 음성신호의 특징을 추출하여 디지털 데이터, 즉 음성 특징 데이터로 변환하여 전송함으로써 음성인식 성능을 향상시키는 기술이다. When the distributed speech recognition technology is described in more detail, speech recognition performance is significantly degraded due to compression transmission and transmission error of speech in a wireless communication environment. Distributed speech recognition is a technology that improves speech recognition performance by extracting features of speech signals, converting them into digital data, that is, speech feature data, and transmitting them.
상기에서 설명한 바와 같이 종래 분산 음성 인식 시스템은 이동통신망을 통한 네트워크를 기반으로 한 원격지의 음성 인식 서버와의 통신에 의존하기 때문에 이동통신망 또는 네트워크의 상황이 안 좋아지면 이용할 수 없거나 시간이 오래 걸리는 문제점이 있었다.As described above, the conventional distributed speech recognition system relies on communication with a remote speech recognition server based on a network through a mobile communication network, and thus cannot be used or takes a long time when the situation of the mobile communication network or network is poor. There was this.
따라서, 본 발명의 목적은 원격지의 분산 음성 인식과 국부 음성인식을 동시에 수행하고 시간적으로 빠르거나 정확하게 인식된 결과를 사용자에 의해 선택할 수 있는 분산 음성인식 시스템을 이용하여 텔레매틱스 시스템의 서비스 센터에서 제공하는 정보들을 수신하는 텔레매틱스 시스템의 정보 제공 시스템 및 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide a service in a telematics system using a distributed speech recognition system that simultaneously performs remote distributed speech recognition and local speech recognition and selects a result that is quickly or accurately recognized by a user. An information providing system and method of a telematics system for receiving information are provided.
상기한 목적을 달성하기 위한 본 발명의 다른 장치는; 텔레매틱스 시스템의 정보 제공 시스템에 있어서, 발화된 음성어로부터 상기 음성의 음성 특징을 검출하여 음성 특징데이터를 생성하고, 상기 음성 특징데이터를 생성하여 전송하며, 상기 음성 특징데이터의 전송에 응답하여 상기 음성어에 대한 정보를 수신하여 사용자에게 통보하는 텔레매틱스 단말기와, 상기 음성 특징데이터를 수신하고 상기 음성 특징데이터를 이용하여 음성인식을 수행하여 음성인식된 인식어를 전송하는 분산 음성 인식 서버와, 상기 인식어를 수신받고 상기 인식어에 상응하는 정보를 찾아 전송하는 데이터베이스 서버와, 상기 텔레매틱스 단말기로부터 음성 특징데이터를 수신하여 상기 분산 음성 인식 서버로 전송하고 상기 음성 특징데이터의 전송에 응답하여 상기 인식어가 입력하면 상기 데이터베이스 서버로 전송하며 상기 인식어 전송에 응답하여 상기 데이터베이스 서버로부터 상기 인식어에 대한 정보가 수신되면 상기 텔레매틱스 단말기로 전송하는 웹 서버로 이루어짐을 특징으로 한다.Another apparatus of the present invention for achieving the above object; An information providing system of a telematics system, comprising: detecting a voice feature of the voice from a spoken voice word to generate voice feature data, generating and transmitting the voice feature data, and responding to the transmission of the voice feature data A telematics terminal that receives information about a language and notifies a user, a distributed speech recognition server that receives the speech feature data and performs speech recognition using the speech feature data to transmit a speech recognition recognition word, and the recognition A database server that receives a word and finds and transmits information corresponding to the recognized word, and receives the voice feature data from the telematics terminal, transmits the received voice feature data to the distributed voice recognition server, and inputs the recognized word in response to the transmission of the voice feature data To the database server The web server is configured to transmit the information to the telematics terminal when information about the recognized word is received from the database server in response to the recognized word transmission.
상기한 다른 목적을 달성하기 위한 본 발명은; 텔레매틱스 시스템의 정보 제공 시스템에 있어서, 발화된 음성어로부터 상기 음성의 음성 특징을 검출하여 상기 음성 특징데이터를 생성하고, 상기 음성 특징데이터를 생성하여 국부 음성 인식을 수행하고 인식 결과인 국부 인식어를 생성하여 저장하고, 상기 음성 특징데이터를 전송하고 상기 음성 특징데이터의 전송에 응답하여 분산 인식어를 수신하여 저장하며 상기 국부 인식어 및 분산 인식어 중 하나의 인식어를 전송하고 상기 인식어의 전송에 응답하여 상기 인식어에 대한 정보를 수신하여 사용자에게 통보하는 텔레매틱스 단말기와, 상기 음성 특징데이터를 수신하고 상기 음성 특징데이터를 이용하여 음성인식을 수행하여 음성 인식된 분산 인식어를 전송하는 분산 음성 인식 서버와, 상기 인식어를 수신받고 상기 인식어에 상응하는 정보를 찾아 전송하는 데이터베이스 서버와, 상기 텔레매틱스 단말기로부터 음성 특징데이터를 수신하여 상기 분산 음성 인식 서버로 전송하고 상기 음성 특징데이터의 전송에 응답하여 상기 분산 인식어가 입력하면 상기 텔레매틱스 단말기로 전송하며 상기 분산 인식어의 전송에 응답하여 상기 텔레매틱스 단말기로부터 상기 인식어가 수신되면 상기 데이터베이스 서버로 전송하고 상기 데이터베이스 서버로부터 상기 인식어에 대한 정보가 수신되면 상기 텔레매틱스 단말기로 전송하는 웹 서버로 이루어짐을 특징으로 한다.The present invention for achieving the above other object; In the information providing system of the telematics system, the voice feature of the voice is detected from the spoken voice word to generate the voice feature data, and the voice feature data is generated to perform local voice recognition and to recognize the local recognition word as a recognition result. Generating and storing the voice feature data, receiving and storing a distributed recognizer in response to the transmission of the voice feature data, transmitting one recognizer of the local recognizer and the distributed recognizer, and transmitting the recognizer And a telematics terminal for receiving information on the recognized word and notifying the user in response thereto, and a distributed voice for receiving the voice feature data and performing voice recognition using the voice feature data to transmit a voice recognition distributed recognition word. A recognition server and the information corresponding to the received recognition word; A database server which finds and transmits the voice feature data from the telematics terminal and transmits the voice feature data to the distributed voice recognition server and transmits the voice feature data to the telematics terminal when the distributed recognizer inputs in response to the transmission of the voice feature data. The web server transmits the recognized word from the telematics terminal to the database server in response to the transmission, and transmits the recognized word to the telematics terminal when information about the recognized word is received from the database server.
상기한 목적을 달성하기 위한 본 발명의 방법은; 텔레매틱스 단말기와 웹 서버와 분산 음성 인식 서버와 데이터베이스 서버로 구성되는 텔레매틱스 시스템의 정보 제공 방법에 있어서, 상기 텔레매틱스 단말기가, 발화된 음성어로부터 상기 음성의 음성 특징을 검출하여 음성 특징데이터를 생성하여 상기 웹 서버로 전송하는 과정과, 상기 웹 서버가 상기 텔레매틱스 단말기로부터 음성 특징데이터를 수신하여 상기 분산 음성 인식 서버로 전송하는 과정과, 상기 분산 음성 인식 서버가, 상기 음성 특징데이터를 수신하고 상기 음성 특징데이터를 이용하여 음성인식을 수행하여 음성 인식 결과인 인식어를 상기 데이터베이스 서버로 전송하는 과정과, 상기 데이터베이스 서버가 상기 인식어에 상응하는 정보를 찾아 상기 웹 서버로 전송하는 과정과, 상기 웹 서버가 상기 정보를 상기 텔레매틱스 단말기로 전송하는 과정과, 상기 텔레매틱스 단말기가, 상기 음성 특징데이터의 전송에 응답하여 상기 음성어에 대한 정보를 수신하여 사용자에게 통보하는 과정으로 이루어짐을 특징으로 한다.The method of the present invention for achieving the above object; An information providing method of a telematics system comprising a telematics terminal, a web server, a distributed speech recognition server, and a database server, wherein the telematics terminal detects a voice feature of the voice from a spoken voice word and generates voice feature data. Transmitting the voice feature data to the distributed voice recognition server; transmitting the voice feature data from the telematics terminal to the distributed voice recognition server; and receiving the voice feature data and receiving the voice feature data. Performing a voice recognition using data to transmit a recognition word that is a result of speech recognition to the database server, the database server finding information corresponding to the recognition word, and transmitting the information to the web server, and the web server The telematics terminal with the information Transfer process and further characterized in that said telematics terminal, constituted by any process, for receiving information on the voice control in response to the transmission of the speech feature data, notifying the user.
본 발명의 또 다른 목적을 달성하기 위한 본 발명의 방법은; 텔레매틱스 단 말기와 웹 서버와 분산 음성 인식 서버와 데이터베이스 서버로 구성되는 텔레매틱스 시스템의 정보 제공 방법에 있어서, 상기 텔레매틱스 단말기가, 발화된 음성어로부터 상기 음성의 음성 특징을 검출하여 상기 음성 특징데이터를 생성하고, 상기 음성 특징데이터를 생성하여 국부 음성 인식을 수행한 후 상기 음성 특징데이터를 전송하는 과정과, 상기 웹 서버가, 상기 음성 특징데이터를 수신하여 상기 분산 음성 인식 서버로 전송하는 과정과, 상기 분산 음성 인식 서버가, 상기 음성 특징데이터를 수신하고 상기 음성 특징데이터를 이용하여 음성인식을 수행하여 음성 인식된 분산 인식어를 상기 웹 서버로 전송하는 과정과, 상기 웹 서버가, 상기 분산 인식어를 텔레매틱스 단말기로 전송하는 과정과, 상기 텔레매틱스 단말기가, 상기 분산 인식어와 상기 국분 음성인식 인식 수행 결과인 국부 인식어 들 중 임의의 하나의 인식어를 상기 웹 서버로 전송하는 과정과, 상기 웹 서버가, 상기 인식어를 상기 데이터베이스 서버로 전송하는 과정과, 상기 데이터베이스 서버가, 상기 인식어를 수신받고 상기 인식어에 상응하는 정보를 찾아 전송하는 과정과, 상기 웹 서버가 상기 정보를 텔레매틱스 단말기로 전송하는 과정과, 상기 텔레매틱스 단말기가, 상기 인식어의 전송에 응답하여 상기 인식어에 대한 정보를 수신하여 사용자에게 통보하는 과정으로 이루어짐을 특징으로 한다.
The method of the present invention for achieving another object of the present invention; An information providing method of a telematics system comprising a telematics terminal, a web server, a distributed speech recognition server, and a database server, wherein the telematics terminal detects a voice feature of the voice from a spoken voice word and generates the voice feature data. Generating the voice feature data, performing local voice recognition, transmitting the voice feature data, and receiving, by the web server, the voice feature data and transmitting the voice feature data to the distributed voice recognition server; A distributed speech recognition server, receiving the speech feature data and performing speech recognition using the speech feature data to transmit a speech recognition distributed recognition word to the web server; Transmitting to the telematics terminal, the telematics terminal, the Transmitting, to the web server, any one of a distributed recognition word and a local recognition word that is a result of performing the local speech recognition recognition; transmitting, by the web server, the recognition word to the database server; Receiving, by the database server, and searching for and transmitting information corresponding to the recognized word; transmitting, by the web server, the information to a telematics terminal; and transmitting, by the telematics terminal, the recognized word. And receiving information on the recognized word in response to the notification.
이하, 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기의 설명에서는 본 발명에 따른 동작을 이해하는데 필요한 부분만이 설 명되며 그 이외 부분의 설명은 본 발명의 요지를 벗어나지 않도록 생략될 것이라는 것을 유의하여야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that in the following description, only parts necessary for understanding the operation according to the present invention will be described, and descriptions of other parts will be omitted so as not to depart from the gist of the present invention.
본 발명은 텔레매틱스 단말기에서 음성 인식 시 원격지의 분산 음성 인식 서버를 통한 분산 음성 인식과 상기 텔레매틱스 단말기 자체 음성 인식(이하 "국부 음성 인식"이라 함)을 동시에 진행하고 상기 분산 음성 인식 결과(이하 "분산 인식어"라 함)와 국부 음성 인식 결과(이하 "국부 인식어"라 함)의 일치 여부를 판단하여 일치하면 인식 결과를 사용자에게 알리고, 다를 경우 인식 결과들을 모두 출력하고 사용자에 의해 선택할 수 있도록 하는 것이다.The present invention simultaneously performs distributed speech recognition through a distributed speech recognition server at a remote location and speech recognition by the telematics terminal itself (hereinafter referred to as "local speech recognition") and performs the distributed speech recognition result (hereinafter referred to as "distribution"). "Recognition word") and the local voice recognition result (hereinafter referred to as "local recognition word") to determine whether the match is notified to the user, and if it is different, all the recognition results are output and can be selected by the user It is.
또한, 본 발명은 텔레매틱스 단말기에서 음성 인식 시 원격지의 분산 음성 인식 서버를 통한 분산 음성 인식과 상기 텔레매틱스 단말기 자체 음성 인식을 동시에 진행하고 시간적으로 음성인식이 빠른 쪽의 결과를 사용자에게 알려주는 것이다.In addition, the present invention is to simultaneously perform distributed speech recognition through the remote speech recognition server and the telematics terminal itself speech recognition at the time of speech recognition in the telematics terminal and to inform the user of the result of the faster speech recognition in time.
또한, 정보요구 제1실시 예에 따라 본 발명은 상기 음성 인식된 인식어에 대한 정보를 서비스 센터로 전송하고 상기 인식어에 대한 정보를 수신 받아 사용자에게 알려준다.In addition, according to the first embodiment of the information request, the present invention transmits the information on the speech recognized recognition word to a service center and receives the information on the recognition word to inform the user.
또한, 정보요구 제2실시 예에 따라 본 발명은 상기 인식어에 대한 정보 요청 시 상기 서비스 센터가 음성이식을 수행하고 음성인식된 인식어에 대응하는 정보를 데이터베이스로부터 찾아 바로 텔레매틱스 단말기로 전송하는 것이다.In addition, according to a second embodiment of the information request, the present invention performs voice transplantation when a request for information on the recognized word is performed and finds information corresponding to the recognized speech word from a database and transmits the information directly to the telematics terminal. .
또한, 본 발명은 상술한 바와 같이 텔레매틱스 단말기가 서비스센터로부터 인식된 분산 인식어 수신하고 국부 인식어와 일치성 여부 판단과 사용자에 의한 판 단에 의해 선택된 인식어를 다시 서비스 센터로 전송하여 해당 정보를 수신하는 것이다.In addition, the present invention, as described above, the telematics terminal receives the distributed identifiers recognized from the service center, and transmits the corresponding identifiers to the service center by determining whether they match the local identifiers and determining by the user. To receive.
도 1은 본 발명에 따른 텔레매틱스 시스템의 분산 음성 인식 시스템의 구성을 나타내는 도면이다.1 is a diagram illustrating a configuration of a distributed speech recognition system of a telematics system according to the present invention.
본 발명의 분산 음성 인식 시스템은 텔레매틱스 단말기(100)와 이동통신시스템과 인터넷 망을 통해 연결되거나 이동통신시스템을 통해 연결되는 서비스 센터(200)로 구성된다. 이하의 설명에서 상기 이동통신망 및 인터넷 망을 통한 접속 방법 및 데이터의 송수신 방법은 본 발명의 기술분야의 통상의 지식을 가진자에게 자명함으로 설명의 편의상 설명 및 언급하지 않음을 유의하여야 한다.The distributed speech recognition system of the present invention comprises a
상기 텔레매틱스 단말기(100)는 발화된 음성어로부터 음성 특징을 검출하여 음성 특징 데이터를 생성하고 상기 음성 특징데이터를 상기 서비스 센터(200)로 전송한다. 또한 상기 텔레매틱스 단말기(100)는 상기 특성 데이터에 의해 자체적으로 음성인식을 수행한다. 상기 텔레매틱스 단말기(100)는 상기 특성 데이터의 전송에 대해서 서비스 센터(200)로부터 인식결과가 수신되면 자체 인식 결과를 비교하여 동일하면 하나의 결과를 사용자에게 알리고, 다르면 인식된 두 결과를 모두 알려준다. 이에 응답하여 사용자가 둘 중 하나를 선택하면, 선택된 인식 결과를 최종 인식어로 설정한다.The
서비스 센터(200)는 상기 인터넷 망을 통해 상기 음성 특징 데이터를 수신하고 상기 음성 특징 데이터에 의해 음성 인식을 수행하고, 인식된 인식어에 대한 정보를 찾아 상기 텔레매틱스 단말기(100)로 전송하거나, 상기 인식된 인식어를 상기 텔레매틱스 단말기(100)로 전송하고, 이에 응답하여 수신되는 인식어에 대한 정보를 찾아 상기 텔레매틱스 단말기(100)로 전송한다.The
구체적으로, 상기 서비스 센터(200)는 웹 서버(210)와 분산음성인식 서버(220)와 데이터베이스(Database: 이하 "DB"라 함) 서버(230)로 구성된다.Specifically, the
상기 웹 서버(210)는 상기 텔레매틱스 단말기(100)와 상기 분산음성인식 서버(220) 및 DB 서버(230)간의 데이터를 인터페이싱한다. 즉, 상기 텔레매틱스 단말기(100)로부터 수신된 메시지가 음성 특징 데이터를 포함하는 음성인식 요청 메시지이면 상기 분산음성인식 서버(220)로 전송하고, 특정 정보를 요구하는 정보 요청 메시지이면 상기 DB 서버(230)로 전송한다. 상기 분산음성인식 서버(220)는 대용량의 음성인식 DB를 구비하고 있으며, 상기 음성인식 요청 메시지를 상기 웹 서버(210)를 통해 수신 받고 상기 음성인식 요청 메시지로부터 음성 특징 데이터를 검출하고, 상기 음성 특징 데이터를 분석하여 상기 음성인식 DB를 참조하여 음성인식을 수행하고, 음성 인식된 인식어를 상기 웹 서버(210)로 전송한다. 웹 서버(210)는 상기 인식어를 입력받아 정보요청 제1실시 예에 따라 상기 텔레매틱스 단말기(100)로 전송하고 정보요청 제2실시 예에 따라 상기 인식어에 대한 정보 요구 메시지를 상기 DB서버(230)로 전송한다. 상기 정보 요청 제1실시 예에 따른 정보요청은 상기 분산 음성 인식 서버(220)로부터 수신된 인식어를 상기 텔레매틱스 단말기(100)로 송신 후 이에 응답하여 수신되는 인식어에 대해 상기 DB 서버(230)로 정보요청 메시지를 전송한다.The
DB 서버(230)는 상기 정보 요청 메시지를 상기 웹 서버(210)로부터 입력받고 상기 정보 요청 메시지에 포함된 인식어에 대한 정보를 찾아 상기 웹 서버(210)로 전송한다. 그러면, 웹 서버(210)는 상기 인식어에 대한 정보를 상기 텔레매틱스 단말기(100)로 전송한다.The
도 2는 본 발명에 따른 텔레매틱스 단말기의 구성을 나타내 도면이다. 이하 본 발명에 따른 텔레매틱스 단말기의 구성을 설명한다.2 is a view showing the configuration of a telematics terminal according to the present invention. Hereinafter, the configuration of the telematics terminal according to the present invention will be described.
텔레매틱스 단말기(100)는 제어부(10)와 저장부(20)와 입력부(30)와 오디오 처리부(40)와 음성인식 모듈(50)과 분산 음성 인식(Distributed Speech Recognition: 이하 "DSR"이라 함) 처리부(60)와 무선통신부(70)로 구성된다.The
상기 제어부(10)는 본 발명에 따른 텔레매틱스 단말기의 전반적인 동작을 제어한다.The
저장부(20)는 본 발명에 텔레매틱스 시스템에서의 분산 음성 인식 및 인식된 인식어에 대한 정보 수신을 위한 제어프로그램을 저장하는 영역과 상기 제어 프로그램 수행 중에 발생하는 데이터를 일시 저장하는 영역과, 텔레매틱스 단말기의 기능 또는 음악 파일 등과 같은 사용자 데이터를 저장하는 사용자 데이터 저장 영역으로 구성된다.The
입력부(30)는 키입력장치 또는/및 터치스크린 등의 입력장치로 써 사용자에 의한 텔레매틱스 단말기의 기능을 제어하기 위한 다수의 입력데이터들을 생성하여 출력한다.The
디스플레이부(35)는 상기 제어부(10)의 제어를 받아 동영상, 정지영상 등과 같은 다양한 정보들을 표시한다.The
오디오 처리부(40)는 스피커(SP) 또는 마이크(MIC)와 연결되며, 상기 제어부(10)의 제어를 받아 상기 마이크를 통해 입력되는 아날로그 음성어를 디지털 형태의 음성 데이터로 변환하여 상기 음성인식 모듈(50) 또는/ 및 DSR 처리부(60)로 출력한다.The
음성인식 모듈(50)은 상기 제어부(10)의 제어를 받아 상기 소용량의 음성인식 DB를 가지고 있으며, 상기 음성 데이터를 입력받고 상기 음성의 음성 특징을 검출하여 음성 특징 데이터를 생성한다. 상기 음성 특징 데이터가 생성되면 음성인식 모듈(50)은 상기 음성 특징 데이터와 상기 음성인식 DB의 정보들을 이용하여 상기 음성 인식을 수행하고 인식 결과인 인식어를 상기 제어부(10)로 출력한다.The
DSR 처리부(60)는 상기 제어부(10)의 제어를 받아 오디오 처리부(40)로부터 상기 음성 특징 데이터를 입력받아 상기 무선통신부(70)를 통해 분산 음성 인식 처리를 위한 전반적인 동작을 제어한다.The
무선통신부(70)는 상기 제어부(10)의 제어를 받아 이동통신시스템과 무선채널을 형성하고 상기 제어부(10) 또는 DSR 처리부(60)로부터 입력되는 데이터를 송신하고 수신되는 데이터를 상기 제어부(10) 또는 DSR 처리부(60)로 출력한다.The
도 3은 본 발명의 정보 요청 제1실시 예에 따른 텔레매틱스 시스템의 분산 음성 인식 방법을 나타내는 절차도이다. 이하 도 3을 참조하여 정보요청을 위한 첫 번째 실시 예를 설명한다.3 is a flowchart illustrating a distributed speech recognition method of the telematics system according to the first embodiment of the information request. Hereinafter, a first embodiment for requesting information will be described with reference to FIG. 3.
우선 텔레매틱스 단말기(100)는 입력부(30)로부터 음성 인식 입력데이터가 입력하면 마이크(MIC)를 통해 음성을 입력받는다. 상기 마이크(MIC)를 통해 음성이 입력하면 제어부(10)는 상기 오디오 처리부(40)와 음성인식 모듈(50)을 제어하여 음성 특징 데이터를 DSR 처리부(60)로 출력시킨다. 그러면 상기 DSR 처리부(60)는 상기 음성 특징데이터를 포함하는 음성 인식 요청 메시지를 생성하고, 251단계에서 웹 서버(210)로 전송한다.First, when the voice recognition input data is input from the
상기 음성 인식 요청 메시지를 수신한 웹 서버(210)는 상기 음성 인식 요청 메시지를 253단계에서 DSR 서버(220)로 전송한다.The
그러면 DSR 서버(220)는 상기 음성인식 요청 메시지로부터 음성 특징 데이터를 검출하고 상기 음성 특징 데이터를 사용하여 음성 인식을 수행하여 음성 인식 결과인 인식어를 생성한다. 상기 인식어 생성되면 DSR 서버(220)는 인식어를 포함하는 음성 인식 결과 메시지를 255단계에서 웹 서버(210)로 전송한다.Then, the
그러면 웹 서버(210)는 상기 음성 인식 결과 메시지를 257단계에서 DB 서버(230)로 전송한다.Then, the
상기 음성 인식 결과 메시지를 수신한 DB 서버(230)는 상기 음성 인식 결과 메시지로부터 인식어를 검출하고 상기 인식어에 대한 정보를 찾는다. 상기 인식어에 대한 정보가 찾아지면 DB 서버(230)는 상기 찾아진 정보를 포함하는 인식어에 대하 정보를 259단계에서 웹 서버(210)로 전송한다.The
그러면 웹 서버(210)는 261단계에서 텔레매틱스 단말기(100)로 전송한다.Then, the
도 4는 본 발명의 정보요청 제2실시 예에 따른 텔레매틱스 시스템의 분산 음성 인식 방법을 나타내는 절차도이다. 도 4를 참조하여 정보 요청을 위한 두 번째 실시 예를 설명한다.4 is a flowchart illustrating a distributed speech recognition method of a telematics system according to a second embodiment of the information request of the present invention. A second embodiment for requesting information will be described with reference to FIG. 4.
우선 텔레매틱스 단말기(100)는 입력부(30)로부터 음성 인식 입력데이터가 입력하면 마이크(MIC)를 통해 음성을 입력받는다. 상기 마이크(MIC)를 통해 음성이 입력하면 제어부(10)는 상기 오디오 처리부(40)와 음성인식 모듈(50)을 통해 음성 특징 데이터를 DSR 처리부(60)로 출력시킨다. 그러면 상기 DSR 처리부(60)는 상기 음성 특징데이터를 포함하는 음성 인식 요청 메시지를 생성하고, 상기 음성 인식 요청 메시지가 생성되면 321단계에서 웹 서버(210)로 전송한다. 상기 텔레매틱스 단말기(100)는 상기 음성 인식 요청 메시지 송신 후 상기 음성인식 모듈(50)을 통해 국부 음성 인식을 수행한다.First, when the voice recognition input data is input from the
웹 서버(210)는 323단계에서 상기 수신된 음성 인식 요청 메시지를 323단계에서 DSR 서버(220)로 전송한다.The
상기 음성 인식 요청 메시지를 수신한 DSR 서버(220)는 상기 음성 인식 요청 메시지로부터 음성 특징 데이터를 검출하여 음성 인식을 수행한다. 상기 DSR 서버(220)는 음성 인식을 수행하고, 그 결과인 인식어를 포함하는 음성 인식 결과 메시지를 325단계에서 웹 서버(210)로 전송한다. 상기 웹 서버(210)는 327단계에서 상기 음성 인식 결과 메시지를 해당 텔레매틱스 단말기(100)로 전송한다. 텔레매틱스 단말기(100)는 상기 음성인식 결과 메시지를 수신하고 국부 음성 인식 수행 결과인 국부 음성 인식어와 상기 음성 인식 결과 메시지에 포함되어 있는 분산 인식어를 비교하여 동일하면 둘 중 임의의 하나를 포함하는 상기 인식어에 대한 정보 요청 메시지를 생성하고 329단계에서 웹 서버(210)로 전송한다. 그러면 웹 서버(210)는 331단계에서 상기 인식어에 대한 정보 요청 메시지를 DB 서버(230)로 전송한다. 그 러면 DB 서버(230)는 상기 정보 요청 메시지의 인식어에 대한 정보를 찾아 상기 인식어에 대한 정보 메시지를 생성하고 333단계에서 웹 서버(210)로 전송한다. 웹 서버(210)는 상기 인식어에 대한 정보 메시지를 수신하여 335단계에서 텔레매틱스 단말기(100)로 전송한다. 상기 인식어에 대한 텔레매틱스 단말기(100)는 액정표시장치 등의 디스플레이 장치(도시하지 않음) 또는/ 및 오디오 처리부(40)의 스피커를 통해 사용자에게 알려준다.Upon receiving the voice recognition request message, the
상기에서 정보 요청 두 번째 실시 예에서는 텔레매틱스 단말기가 자체의 음성인식 수행 결과인 국부 인식어와 DSR 서버(220)을 통한 분산 인식어를 모두 수신한다. 이하 텔레매틱스 단말기에서의 상기 국부 인식어와 분산 인식어의 처리 방법을 도 5와 도 6을 참조하여 설명한다. In the second embodiment of the information request, the telematics terminal receives both a local recognition word that is a result of performing its own voice recognition and a distributed recognition word through the
도 5는 본 발명의 음성 인식 제1실시 예에 따른 텔레매틱스 단말기에서의 제1 분산 음성 인식 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a first distributed speech recognition method in a telematics terminal according to the first embodiment of the speech recognition.
제어부(10)는 401단계에서 마이크(MIC)와 오디오 처리부(40)를 통해 음성이 입력하는지를 판단한다. 상기 401단계에서 오디오 처리부(40)로 입력되는 음성을 음성 데이터로 변환하여 음성인식 모듈(50)로 출력한다.The
상기 401단계 후에 제어부(10)는 403단계에서 음성인식 모듈(50)을 제어하여 상기 음성데이터로부터 음성 특징 데이터를 검출하고, 상기 검출된 음성 특징 데이터를 DSR 처리부(60)로 출력시킨다. 상기 음성 특징 데이터가 DSR 처리부(60)로 출력되면 제어부(10)는 405단계에서 상기 DSR 처리부(60)로 음성 특징데이터를 전송할 것을 요구하는 제어신호를 출력한다. 그러면 DSR 처리부(60)는 상기 입력받은 음성 특징데이터를 포함하는 음성 인식 요청 메시지를 생성하여 무선통신부(70)와 안테나(ANT)를 통해 웹 서버(210)로 전송한다. 상기 DSR 처리부(60)는 무선통신부(70)를 통해 상기 음성 인식 요청 메시지의 송신에 응답하여 음성인식 결과 메시지가 수신되는지를 검사하며, 상기 음성인식 결과 메시지가 수신되면 상기 음성인식 결과 메시지로부터 분산 인식어를 검출하여 상기 제어부(10)로 출력한다.After
상기 음성 특징데이터의 전송 요구 제어신호 출력 후 제어부(10)는 407단계에서 음성인식 모듈(50)을 제어하여 국부 음성 인식을 수행한다.After outputting the transmission request control signal of the voice feature data, the
상기 407단계 후 제어부(10)는 409단계에서 DSR 처리부(60)로부터 분산 인식어가 입력하는지를 검사한다. 상기 분산 인식어가 입력하지 않으면 413단계로 진행하여 국부 음성인식이 완료되어 상기 음성인식 모듈(50)로부터 국부 인식어가 입력하는지를 판단한다. 상기 407단계에서 분산 인식어가 입력하면 제어부(411)단계로 진행하여 상기 분산 인식어를 저장하고, 상기 409단계에서 국부 인식어가 음성인식 모듈(50)로부터 입력하면 415단계에서 상기 국부 인식어를 저장한다.After
상기 411단계 또는 415단계 후에 제어부(10)는 417단계로 진행하여 국부 인식어 및 분산 인식어 둘 모두가 저장되었는지를 검사한다.After
상기 국부 인식어와 분산 인식어 모두가 저장될 때까지 상기 409단계 이후의 과정을 반복 수행한다. 상기 417단계에서 국부 인식어와 분산 인식어가 모두 저장되었으면 제어부(10)는 418단계로 진행하여 상기 국부 인식어와 분산 인식어가 일치하는지를 검사한다. 상기 검사 결과 국부 인식어와 분산 인식어가 일치하면 제어부(10)는 423단계로 진행하여 둘 중 임의의 인식어에 대한 정보 요청 메시지를 생 성하고 무선통신부(70)를 통해 웹 서버(210)으로 전송한다.The process after
반면, 국부 인식어와 분산 인식어가 일치하지 않으면 제어부(10)는 419단계로 진행하여 오디오 처리부(40) 및/또는 디스플레이부(35)를 통해 두 인식 결과를 출력하고 사용자에게 선택할 것으로 요구한다. 상기 선택 요구 후 제어부(10)는 421단계로 진행하여 둘 중 하나가 선택되는지를 검사하며, 상기 둘 중 하나가 선택되면 423단계로 진행하여 선택된 인식어에 대한 정보 요청 메시지를 생성하여 무선통신부(70)를 통해 웹 서버(210)로 전송한다.On the other hand, if the local recognition word and the distributed recognition word do not match, the
도 6은 본 발명의 음성인식 제2실시 예에 따른 텔레매틱스 단말기에서의 제2 분산 음성 인식 방법을 나타낸 흐름도이다.6 is a flowchart illustrating a second distributed speech recognition method in a telematics terminal according to a second embodiment of speech recognition of the present invention.
이하 도 6을 참조하면, 제어부(10)는 상기 도 5의 501단계에서 515단계에서는 상기 도 5의 401단계에서 415단계와 동일한 동작을 수행한다. 그러나 제2실시 예에서는 도 5의 418단계서와 같이 두 인식어의 일치 여부를 판단하지 않고 517단계에서 국부 인식어 또는 분산 인식어 중 먼저 입력하는 인식어를 무선통신부(70)를 통해 웹 서버(210)로 전송한다. 제2실시 예에서 나중에 입력하는 인식어는 폐기된다.Referring to FIG. 6, the
상술한 바와 같은 본 발명은, 음성으로 텔레매틱스 시스템의 서비스 센터의 각종 정보를 수신할 수 있으므로 운전자가 운전중에 받고자 하는 정보에 대한 단어, 구, 절 또는 탑-다운(Top-Down) 메뉴 선택 방식 등에 의한 정보 검색 시 터치 스크린을 클릭할 필요가 없으므로 운전자가 안전운전을 할 수 있도록 도와줄 수 있는 이점이 있다.As described above, the present invention can receive various types of information of the service center of the telematics system by voice, so that words, phrases, clauses, or top-down menu selection schemes for information that the driver wants to receive while driving are used. Since there is no need to click the touch screen when searching for information, there is an advantage that can help the driver to drive safely.
또한, 본 발명은 대용량의 데이터베이스를 사용하는 분산 인식 시스템을 이용한 분산인식과 단말기 자체의 국부 인식을 수행하므로서 인식률을 향상시킬 수 있는 이점을 가진다.In addition, the present invention has the advantage that the recognition rate can be improved by performing distributed recognition using a distributed recognition system using a large database and local recognition of the terminal itself.
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050009883A KR101073190B1 (en) | 2005-02-03 | 2005-02-03 | Distribute speech recognition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050009883A KR101073190B1 (en) | 2005-02-03 | 2005-02-03 | Distribute speech recognition system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060089288A true KR20060089288A (en) | 2006-08-09 |
KR101073190B1 KR101073190B1 (en) | 2011-10-13 |
Family
ID=37177389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050009883A KR101073190B1 (en) | 2005-02-03 | 2005-02-03 | Distribute speech recognition system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101073190B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010025440A3 (en) * | 2008-08-29 | 2010-06-03 | Multimodal Technologies, Inc. | Hybrid speech recognition |
KR20140001711A (en) * | 2012-06-28 | 2014-01-07 | 엘지전자 주식회사 | Mobile terminal and method for recognizing voice thereof |
WO2019177373A1 (en) * | 2018-03-14 | 2019-09-19 | Samsung Electronics Co., Ltd. | Electronic device for controlling predefined function based on response time of external electronic device on user input, and method thereof |
CN114246356A (en) * | 2020-09-25 | 2022-03-29 | 上海烟草集团有限责任公司 | Design method, system, medium and device of cigarette leaf group formula |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110269269B (en) * | 2019-06-25 | 2021-07-27 | 红云红河烟草(集团)有限责任公司 | Formula automatic replacement method for maintaining stable quality of cigarette tobacco shreds |
-
2005
- 2005-02-03 KR KR1020050009883A patent/KR101073190B1/en active IP Right Grant
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010025440A3 (en) * | 2008-08-29 | 2010-06-03 | Multimodal Technologies, Inc. | Hybrid speech recognition |
US7933777B2 (en) | 2008-08-29 | 2011-04-26 | Multimodal Technologies, Inc. | Hybrid speech recognition |
KR20140001711A (en) * | 2012-06-28 | 2014-01-07 | 엘지전자 주식회사 | Mobile terminal and method for recognizing voice thereof |
CN103533154A (en) * | 2012-06-28 | 2014-01-22 | Lg电子株式会社 | Mobile terminal and a voice recognition method |
CN103533154B (en) * | 2012-06-28 | 2015-09-02 | Lg电子株式会社 | The method of mobile terminal and identification voice thereof |
US9147395B2 (en) | 2012-06-28 | 2015-09-29 | Lg Electronics Inc. | Mobile terminal and method for recognizing voice thereof |
WO2019177373A1 (en) * | 2018-03-14 | 2019-09-19 | Samsung Electronics Co., Ltd. | Electronic device for controlling predefined function based on response time of external electronic device on user input, and method thereof |
KR20190115498A (en) * | 2018-03-14 | 2019-10-14 | 삼성전자주식회사 | Electronic device for controlling predefined function based on response time of external electronic device on user input and method thereof |
US11531835B2 (en) | 2018-03-14 | 2022-12-20 | Samsung Electronics Co., Ltd. | Electronic device for controlling predefined function based on response time of external electronic device on user input, and method thereof |
CN114246356A (en) * | 2020-09-25 | 2022-03-29 | 上海烟草集团有限责任公司 | Design method, system, medium and device of cigarette leaf group formula |
CN114246356B (en) * | 2020-09-25 | 2023-04-18 | 上海烟草集团有限责任公司 | Design method, system, medium and device of cigarette leaf group formula |
Also Published As
Publication number | Publication date |
---|---|
KR101073190B1 (en) | 2011-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220013122A1 (en) | Voice assistant tracking and activation | |
US10149102B2 (en) | Providing data service options using voice recognition | |
JP4439920B2 (en) | System and method for simultaneous multimodal communication session persistence | |
US9218812B2 (en) | Vehicular device, server, and information processing method | |
US11290401B2 (en) | Coordination of data received from one or more sources over one or more channels into a single context | |
US7356471B2 (en) | Adjusting sound characteristic of a communication network using test signal prior to providing communication to speech recognition server | |
US6807529B2 (en) | System and method for concurrent multimodal communication | |
EP2525189B1 (en) | Remote operator assistance for one or more user commands in a vehicle | |
US20150006147A1 (en) | Speech Recognition Systems Having Diverse Language Support | |
US20030187944A1 (en) | System and method for concurrent multimodal communication using concurrent multimodal tags | |
KR101073190B1 (en) | Distribute speech recognition system | |
JP4899194B2 (en) | Terminal, network device, network device search system including terminal and network device, and network device search method | |
JP5698864B2 (en) | Navigation device, server, navigation method and program | |
US11641592B1 (en) | Device management using stored network metrics | |
KR100749088B1 (en) | Conversation type navigation system and method thereof | |
KR100986506B1 (en) | A voice recognition system | |
JP2017181667A (en) | Voice recognition apparatus and voice recognition method | |
KR20120065825A (en) | Method for mobile position tracking | |
JP2001014136A (en) | Onboard computer system, onboard computer, terminal and information input/output method | |
JP2004015196A (en) | Communication system and communication service method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140925 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150930 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161004 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20170925 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20180927 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20190923 Year of fee payment: 9 |