KR20080052306A - The method and apparatus for recognizing speech for navigation system - Google Patents

The method and apparatus for recognizing speech for navigation system Download PDF

Info

Publication number
KR20080052306A
KR20080052306A KR1020070088918A KR20070088918A KR20080052306A KR 20080052306 A KR20080052306 A KR 20080052306A KR 1020070088918 A KR1020070088918 A KR 1020070088918A KR 20070088918 A KR20070088918 A KR 20070088918A KR 20080052306 A KR20080052306 A KR 20080052306A
Authority
KR
South Korea
Prior art keywords
word
feature data
registered
speech recognition
navigation system
Prior art date
Application number
KR1020070088918A
Other languages
Korean (ko)
Other versions
KR100919227B1 (en
Inventor
이은령
손동환
정영규
김광수
이호근
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20080052306A publication Critical patent/KR20080052306A/en
Application granted granted Critical
Publication of KR100919227B1 publication Critical patent/KR100919227B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096805Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)

Abstract

A voice recognition method used in a navigation system and an apparatus therefor are provided to recognize a word inputted by a voice by using a little resources. A voice input unit(220) receives a word through a voice. A voice recognition unit(250) extracts word feature data and initial sound feature data of the received word. A control unit(200) compares the extracted word feature data with previously registered word feature data. If a registration word having the previously registered word feature data which are identical to the extracted word feature data does not exist, the control unit compares the extracted initial sound feature data with previously registered initial sound feature data and performs voice recognition.

Description

네비게이션 시스템에 이용되는 음성 인식 방법 및 장치{THE METHOD AND APPARATUS FOR RECOGNIZING SPEECH FOR NAVIGATION SYSTEM}Speech recognition method and apparatus for navigation system {THE METHOD AND APPARATUS FOR RECOGNIZING SPEECH FOR NAVIGATION SYSTEM}

본 발명은 음성 인식 장치 및 방법에 관한 것으로, 특히 네비게이션에서 리소스를 효과적으로 제한하여 음성을 인식하기 위한 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for speech recognition, and more particularly, to an apparatus and method for speech recognition by effectively limiting resources in navigation.

현재 사용되고 있는 이동 단말기는 리소스(resource)가 한정적이어서 한 단계에서 음성 인식이 가능한 어휘의 수가 대략 1천 단어 정도로 매우 적다. 따라서, 기존의 고정 또는 가변 탐색망에 기반하여 음성 인식을 수행하는 방법은 수십만 어휘를 처리하기에 역부족이다. 따라서, 인식 대상 어휘를 얼마나 효과적으로 제한하여 유효한 어휘 집합을 구성할 수 있는지에 대한 방안의 필요성이 대두되고 있다. 미국 등록 특허 제 6694295호 'Method and a device for recognizing speech'에 게시된 발명은 키 보드나 터치 스크린으로 입력된 문자열을 인식하고, 그 문자열로 시작되는 어휘들만을 인식 대상 어휘로 하는 방법인데, 이 방식은 키보드를 사용하는 등 특정한 키를 눌러야하는 불편함이 있다. 또한, 이 방식에 따르더라도 음성 인식 장치는 많은 어휘를 검색해야 하는 단점이 있다. Currently, mobile terminals have limited resources, so the number of words that can be recognized in one step is about 1,000 words. Therefore, the method of performing speech recognition based on the existing fixed or variable search network is insufficient to process hundreds of thousands of words. Accordingly, there is a need for a method of how to effectively limit the recognition target vocabulary to form a valid vocabulary set. The invention published in US Patent No. 6694295 'Method and a device for recognizing speech' is a method of recognizing a character string input by a keyboard or a touch screen and using only the vocabulary starting with the character string as a recognition object vocabulary. The method is inconvenient to press a specific key, such as using a keyboard. In addition, even with this method, the speech recognition apparatus has a disadvantage in that many words must be searched.

따라서, 본 발명의 목적은, 적은 리소스를 사용하여 음성 입력된 단어를 인식하기 위한 장치 및 방법을 제공하는 데 있다. It is therefore an object of the present invention to provide an apparatus and method for recognizing speech input words using less resources.

또한, 본 발명의 다른 목적은, 음성 입력된 단어의 특징 데이터가 충분하지 않은 경우 초성 특징 데이터를 이용하여 단어를 인식하기 위한 장치 및 방법을 제공하는 데 있다. Another object of the present invention is to provide an apparatus and method for recognizing a word using initial feature data when the feature data of a voice input word is not sufficient.

이를 위해 본 발명에 따른 네비게이션을 이용한 음성 인식 방법은, (a) 음성을 통하여 입력된 단어의 특징 데이터를 추출하는 단계; (b) 상기 추출된 단어 특징 데이터와 미리 등록된 단어 특징 데이터를 비교함으로써 상기 단어를 인식하는 단계; (c) 상기 추출된 단어 특징 데이터와 일치하는 상기 미리 등록된 단어 특징 데이터를 갖는 등록 단어가 없다면, 상기 입력된 음성의 초성 특징 데이터를 추출하는 단계; 및 (d) 상기 추출된 초성 특징 데이터를 미리 등록된 초성 특징 데이터와 비교함으로써 상기 단어를 인식하는 단계를 포함한다. To this end, a voice recognition method using navigation according to the present invention includes: (a) extracting feature data of a word input through voice; (b) recognizing the word by comparing the extracted word feature data with previously registered word feature data; (c) if there is no registered word having the pre-registered word feature data that matches the extracted word feature data, extracting the initial feature data of the input voice; And (d) recognizing the word by comparing the extracted initial characteristic data with previously registered initial characteristic data.

또한, 이를 위해 본 발명에 따른 네비게이션을 이용한 음성 인식 장치는, 음성을 통하여 단어를 입력받는 음성 입력부; 상기 음성 입력된 단어의 단어 특징 데이터 및 초성 특징 데이터를 추출하는 음성 인식부; 및 상기 추출된 단어 특징 데이터를 미리 등록된 단어 특징 데이터와 비교하고, 상기 추출된 단어 특징 데이터 와 일치하는 상기 미리 등록된 단어 특징 데이터를 갖는 등록 단어가 없다면, 상기 추출된 초성 특징 데이터를 미리 등록된 초성 특성 데이터와 비교하여 음성 인식을 수행하는 제어부를 포함한다. In addition, the voice recognition device using the navigation according to the present invention for this purpose, the voice input unit for receiving a word through the voice; A speech recognition unit for extracting word feature data and initial feature data of the voice input word; And comparing the extracted word feature data with pre-registered word feature data, and if there is no registered word having the pre-registered word feature data that matches the extracted word feature data, registering the extracted initial feature data in advance. And a controller configured to perform speech recognition by comparing the first property data.

상술한 바와 같이 본 발명은, 적은 리소스를 사용하여 음성 입력된 단어를 인식할 수 있는 이점이 있다. 또한, 본 발명은 음성 입력된 단어의 특징 데이터가 등록되어 있지 않은 경우, 초성을 비교함으로써 음성 입력된 단어를 인식할 수 있는 이점이 있다. As described above, the present invention has an advantage of recognizing a voice input word using fewer resources. In addition, the present invention has the advantage of recognizing the voice input word by comparing the initiality when the feature data of the voice input word is not registered.

도 1은 단어, 초성 및 숫자의 특징 데이터가 등록된 상태를 보여주는 예시도이다. 1 is an exemplary view illustrating a state in which feature data of words, initial numbers, and numbers is registered.

도 1의 (a)는 기존의 음성 인식 장치에서 특징 데이터가 등록된 상태를 보여주는 것으로, '경복궁', '경주', '경찰청' 및 '경희궁'이라는 단어가 메모리에 저장되어 있는 상태에서, 위 단어들에 대하여 음성 인식을 하고자 할 때, 각각의 단어에 대한 특징 데이터가 모두 메모리에 등록되어 있는 것을 보여준다. FIG. 1 (a) shows a state in which feature data is registered in a conventional voice recognition device. In the state where the words 'Gyeongbokgung', 'Gyeongju', 'Police Office' and 'Gyeonghuigung' are stored in the memory, When speech recognition is performed on words, it shows that all feature data for each word is registered in the memory.

도 1의 (b)는 본 발명의 일실시 예에 따른 특징 데이터가 등록된 상태를 보여주는 것으로, 상기 4개의 단어 중 '경복궁'과 '경주'는 그 사용이 빈번하게 예상되지만, 나머지 단어'경찰청'과 '경희궁'은 그 사용이 드물게 있으리라 예상되어 ' 경복궁'과 '경주'라는 단어에 대한 단어 특징 데이터만을 등록한 것을 보여준다. 이에 더하여, 숫자 및 초성에 대한 특징 데이터도 등록되어있다. FIG. 1 (b) shows a state in which feature data is registered according to an embodiment of the present invention. Of the four words, 'Gyeongbokgung' and 'Gyeongju' are frequently expected to be used, but the rest of the word 'the Police Agency' 'And' Gyeonghuigung 'are expected to be rarely used and show only the word feature data for the words' Gyeongbokgung' and 'Gyeongju'. In addition, feature data for numbers and initials is also registered.

만약 사용자에 의하여 입력된 단어가 '경복궁' 또는 '경주'인 경우 본 발명의 일실시 예에 따른 음성 인식 장치는 미리 등록된 단어 특징 데이터와 비교하여 '경복궁' 또는 '경주'를 인식하고, 입력된 단어가 '경찰청' 또는 '경희궁'인 경우 상기 단어의 초성 'ㄱㅊㅊ' 또는 'ㄱㅎㄱ'을 추출한 후, 상기 추출된 초성 특징을 갖는 미리 저장된 단어가 있는지 판단하여 상기 단어를 인식하게 된다. 도 1의 (b)와 같이 등록되는 단어 특징 데이터의 수를 시스템의 성능에 따라 제한하면, 시스템을 효율적으로 사용할 수 있는 이점이 있게 된다. If the word input by the user is 'Gyeongbokgung' or 'Gyeongju', the voice recognition apparatus according to an embodiment of the present invention recognizes 'Gyeongbokgung' or 'Gyeongju' in comparison with pre-registered word feature data and inputs the same. In the case of the word 'Police Office' or 'Gyeonghui Palace', after extracting the initial word 'ㄱ ㅊㅊ' or 'ㄱㅎㄱ' of the word, it is recognized whether there is a pre-stored word having the extracted initial property. When the number of word feature data registered as shown in FIG. 1B is limited according to the performance of the system, there is an advantage that the system can be used efficiently.

도 2는 본 발명의 일실시 예에 따른 음성 인식 장치의 블록도이다. 2 is a block diagram of a speech recognition apparatus according to an embodiment of the present invention.

본 발명의 일실시 예에 따른 음성 인식 장치는 제어부(200), 키 입력부(210), 음성 입력부(220), 음성 출력부(230), 표시부(240), 음성 인식부(250) 및 메모리부(260)를 포함한다. Voice recognition apparatus according to an embodiment of the present invention is a control unit 200, key input unit 210, voice input unit 220, voice output unit 230, display unit 240, voice recognition unit 250 and memory unit 260.

제어부(200)는 음성 입력부(220)로부터 음성 입력이 있는지 판단하고, 입력된 음성을 음성 인식부(250)로 출력한다. 그 후, 음성 인식부(250)에서 추출된 단어 특징 데이터 및 초성 특징 데이터와 메모리부(260)에 미리 등록된 단어 특징 데이터 및 초성 특징 데이터를 비교하여 서로 일치하는 특징 데이터가 있는지 판단한다. The controller 200 determines whether there is a voice input from the voice input unit 220, and outputs the input voice to the voice recognition unit 250. Thereafter, the word feature data and the first feature data extracted by the speech recognizer 250 and the word feature data and the first feature data registered in advance in the memory unit 260 are compared to determine whether there is feature data that matches each other.

또한, 상기 추출된 단어 특징 데이터와 일치하는 미리 등록된 단어 특징 데 이터를 갖는 단어가 제어 명령이라면 상기 제어 명령을 수행하고, 상기 추출된 단어 특징 데이터와 일치하는 미리 등록된 단어 특징 데이터를 갖는 단어가 지명이라면, 상기 지명을 음성 출력부(230) 및 표시부(240)로 출력한다. 또한, 상기 지명에 해당하는 지역에 관한 영상 신호를 표시부(240)로 출력한다. If the word having pre-registered word feature data that matches the extracted word feature data is a control command, the control command is performed, and the word having pre-registered word feature data that matches the extracted word feature data. If is the name, the name is output to the voice output unit 230 and the display unit 240. In addition, the display unit 240 outputs a video signal of a region corresponding to the place name.

또한, 본 발명의 제 1실시예에 따른 제어부(200)는 추출된 단어 특징 데이터와 일치하는 미리 등록된 단어 특징 데이터가 없는 경우, 추출된 단어 특징 데이터와 유사한 단어 특징 데이터를 갖는 단어를 후보 단어로써 출력한다. Also, when there is no pre-registered word feature data that matches the extracted word feature data, the controller 200 according to the first embodiment of the present invention selects a word having word feature data similar to the extracted word feature data as a candidate word. To output.

또한, 본 발명의 제 2실시예에 따른 제어부(200)는 추출된 단어 특징 데이터와 일치하는 미리 등록된 단어 특징 데이터가 없는 경우, 입력된 단어로부터 추출된 초성 특징 데이터와 일치하는 초성 특징 데이터를 갖는 단어가 저장되어 있는지 판단한다. 이 때, 추출된 초성 특징 데이터와 일치하는 초성 특징 데이터를 갖는 단어가 저장되어 있는 경우 제어부(200)는 상기 단어를 출력하고, 추출된 초성 특징 데이터와 일치하는 특징 데이터를 갖는 미리 저장된 단어가 없는 경우, 상기 추출된 초성 특징 데이터와 유사한 특징 데이터를 갖는 단어를 후보 단어로써 출력한다. In addition, when there is no pre-registered word feature data that matches the extracted word feature data, the controller 200 according to the second embodiment of the present invention may generate the first feature data that matches the first feature data extracted from the input word. Determine if a word is stored. In this case, when a word having initial characteristic data that matches the extracted first characteristic data is stored, the controller 200 outputs the word, and there is no pre-stored word having characteristic data that matches the extracted initial characteristic data. In this case, words having feature data similar to the extracted initial feature data are output as candidate words.

이 때, 유사한 특징 데이터를 갖는 단어는 추출된 초성 특징 데이터를 포함하는 단어이거나, 추출된 초성 특징 데이터 중 일부와 유사한 단어일 수 있다. 예를 들어, 초성 'ㄱㅂ'이 입력된 경우, 이를 포함하는 단어 '경복궁'이 유사한 특징 데이터를 갖는 단어가 된다. 또한, 제어부(200)는 상기 지명에 해당하는 지역까지의 경로를 분석하고, 상기 경로에 관한 정보를 표시부(240)를 통하여 출력한다. In this case, a word having similar feature data may be a word including extracted first feature data or a word similar to some of extracted extracted feature data. For example, when the first letter 'ㄱㅂ' is input, the word 'Gyeongbokgung' including the word becomes a word having similar feature data. In addition, the controller 200 analyzes a route to an area corresponding to the place name and outputs information on the route through the display unit 240.

키 입력부(210)는 각 종 키를 구비하며, 사용자는 키 입력부(210)에 구비된 키를 누름으로써, 음성 인식 모드를 선택할 수 있다. 또한, 키 입력부(210)는 제어부(200)의 제어하에 표시부(240)로 출력된 단어 중 어느 하나를 선택하는 사용자의 입력을 받는다. The key input unit 210 includes various types of keys, and a user may select a voice recognition mode by pressing a key provided in the key input unit 210. In addition, the key input unit 210 receives a user's input of selecting one of the words output to the display unit 240 under the control of the controller 200.

음성 입력부(220)는 사용자로부터 음성을 입력받고 이를 제어부(200)로 출력한다. 특히, 본 발명의 일실시 예에 따른 음성 입력부(220)는 지명 및 각종 제어 명령을 입력받는다. The voice input unit 220 receives a voice from the user and outputs the voice to the controller 200. In particular, the voice input unit 220 according to an embodiment of the present invention receives a place name and various control commands.

음성 출력부(230)는 제어부(200)로부터 출력되는 단어에 관한 음성 신호를 스피커를 통하여 출력한다. The voice output unit 230 outputs a voice signal relating to a word output from the controller 200 through the speaker.

표시부(240)는 제어부(200)로부터 출력되는 영상 신호를 화면에 표시한다. 특히, 본 발명의 실시 예에 따른 표시부(240)는 제어부(200)의 제어 하에 지명으로 인식된 단어에 해당하는 지역에 관한 영상 신호를 화면에 표시한다.The display unit 240 displays an image signal output from the controller 200 on the screen. In particular, the display unit 240 according to an exemplary embodiment of the present invention displays an image signal of a region corresponding to a word recognized as a place name on the screen under the control of the controller 200.

음성 인식부(250)는 제어부(200)로부터 수신된 음성 데이터를 분석하여, 단어 특징 데이터 및 초성 특징 데이터를 추출하고, 상기 추출된 데이터를 제어부(200)로 출력한다. The voice recognition unit 250 analyzes the voice data received from the controller 200, extracts word feature data and initial feature data, and outputs the extracted data to the controller 200.

메모리부(260)에는 지명 및 제어 명령 등 다 수개의 단어가 저장된다. 또한, 상기 다 수개의 단어 중 미리 선택된 단어에 대한 특징 데이터가 등록되며, 초성, 숫자의 특징 데이터도 등록된다. 하기에서 설명하는 본 발명의 일실시 예에서는 제어 명령에 해당하는 단어에 대하여는 모두 단어 특징 데이터가 등록되어 있는 것으로 설명한다. The memory unit 260 stores several words such as place names and control commands. In addition, feature data for a preselected word among the plurality of words is registered, and feature data of initial and numeric characters are also registered. In the embodiment of the present invention described below, it is described that word feature data is registered for all words corresponding to a control command.

도 3은 본 발명의 제 1실시 예에 따른 음성 인식 방법을 나타낸 흐름도이다. 이하, 네비게이션의 모드가 맵을 보여주는 상태이거나, 메뉴를 보여주는 상태일 때 본 발명의 제 1실시 예에 따른 음성 인식을 하는 과정을 상세히 설명한다. 3 is a flowchart illustrating a voice recognition method according to a first embodiment of the present invention. Hereinafter, a process of performing voice recognition according to the first embodiment of the present invention when the navigation mode is a map display state or a menu display state will be described in detail.

단계(300)에서 제어부(200)는 음성을 통한 단어 입력이 있는지 판단하고, 단어 입력이 있다면 단계(302)로 진행한다. 단계(302)에서 음성 인식부(250)는 입력된 단어의 특징 데이터를 추출한 후, 단계(304)로 진행한다. In step 300, the controller 200 determines whether there is a word input through voice, and if there is a word input, the process proceeds to step 302. In operation 302, the speech recognition unit 250 extracts feature data of the input word, and then proceeds to operation 304.

단계(304)에서 제어부(200)는 음성 인식부(250)에서 추출된 단어 특징 데이터와 메모리부(260)에 미리 등록된 단어 특징 데이터를 비교한 후, 단계(306)로 진행한다. 단계(306)에서 제어부(200)는 추출된 단어 특징 데이터와 일치하는 미리 등록된 단어 특징 데이터가 있다면 단계(308)로 진행하고, 그렇지 않으면 단계(330)로 진행한다. In step 304, the controller 200 compares the word feature data extracted by the speech recognizer 250 with the word feature data registered in advance in the memory unit 260, and then proceeds to step 306. In step 306 the control unit 200 proceeds to step 308 if there is pre-registered word feature data that matches the extracted word feature data, otherwise proceeds to step 330.

단계(308)에서 제어부(200)는 상기 일치하는 단어 특징 데이터가 제어 명령인지 판단하고, 제어 명령이라면 단계(310)로 진행하고, 그렇지 않으면 단계(320)로 진행한다. 단계(310)에서 제어부(200)는 상기 제어 명령을 수행한 후, 단계(300)로 진행한다. In step 308, the controller 200 determines whether the matched word feature data is a control command, and if so, proceeds to step 310; otherwise, proceeds to step 320. In step 310, the control unit 200 performs the control command, and then proceeds to step 300.

한편, 단계(306)에서 추출된 단어 특징 데이터와 일치하는 미리 등록된 단어 특징 데이터가 없다고 판단하여 진행한 단계(330)에서, 제어부(200)는 추출된 단어 특징 데이터와 유사한 단어 특징 데이터를 갖는 후보 단어를 선택하여 출력한 후, 단계(300)로 진행한다. Meanwhile, in step 330 where it is determined that there is no pre-registered word feature data that matches the word feature data extracted in step 306, the controller 200 has word feature data similar to the extracted word feature data. After selecting and outputting candidate words, the process proceeds to step 300.

한편, 단계(308)에서 상기 일치하는 단어 특징 데이터가 제어 명령이 아닌 지명이라고 판단하여 진행한 단계(330)에서 제어부(200)는, 상기 지명을 음성 및 영상으로 출력한 후, 단계(300)로 진행한다. 이때, 제어부(200)는 미리 정해진 설정에 따라 상기 지명에 해당하는 지역의 지도를 영상으로 출력할 수 있고, 상기 지명에 해당하는 지점까지의 경로를 분석할 수 있다. In operation 330, the controller 200 determines that the matched word feature data is a place name, not a control command, and then outputs the place name in voice and video. Proceed to In this case, the controller 200 may output a map of the area corresponding to the place name as an image according to a predetermined setting, and analyze a path to a point corresponding to the place name.

도 4는 본 발명의 제 1실시 예에 따른 음성 인식 과정을 보여준 예시도이다. 이때, 메모리부(260)에는 '경복궁', '경희대' 및 '경희궁'이라는 단어가 저장되어 있고, '경복궁'의 특징 데이터가 등록되어 있다고 가정한다. 또한, 제어 명령어 '목적지', '경로 검색', '아래', '위' 및 '확인' 등에 대한 특징 데이터가 등록되어 있다고 가정한다. 4 is an exemplary view illustrating a voice recognition process according to a first embodiment of the present invention. In this case, it is assumed that the words 'Gyeongbokgung', 'Gyeonghuidae' and 'Gyeonghuigung' are stored in the memory unit 260, and feature data of 'Gyeongbokgung' is registered. In addition, it is assumed that feature data for the control command 'destination', 'route search', 'down', 'up' and 'confirmation' are registered.

도 4의 (a)는 네비게이션 화면에 지도가 나타난 상태에서 사용자가 '경복궁'이란 단어를 음성으로 입력한 경우를 보여준 예이다. 사용자로부터 '경복궁'이란 단어가 입력되면 음성 인식부(250)는 입력된 단어의 특징 데이터를 추출하고, 제어부(200)는 상기 추출된 단어의 특징 데이터를 메모리부(260)에 등록된 단어의 특징 데이터와 비교한다. 본 발명의 제 1실시 예에서 '경복궁'이란 단어의 특징 데이터가 메모리부(260)에 등록되어 있기 때문에, 제어부(200)는 '경복궁'이란 단어를 인식하고 이를 화면에 출력하고, 다음 입력을 기다리게 된다. 4A illustrates an example in which the user inputs the word 'Gyeongbokgung Palace' by voice while the map is displayed on the navigation screen. When the word 'Gyeongbokgung' is input from the user, the voice recognition unit 250 extracts feature data of the input word, and the controller 200 extracts the feature data of the extracted word from the word registered in the memory unit 260. Compare with feature data. In the first embodiment of the present invention, since the feature data of the word 'Gyeongbokgung' is registered in the memory unit 260, the controller 200 recognizes the word 'Gyeongbokgung' and outputs it to the screen, and inputs the next input. I will wait.

도 4의 (b)는 도 4의 (a)의 화면에서 사용자가 '목적지' 및 '경로 검색'이라는 단어를 음성으로 입력한 경우를 보여준 예이다. '목적지'라는 단어가 입력되면 음성 인식부(250)는 입력된 단어의 특징 데이터를 추출하고, 제어부(200)는 상기 추출된 단어의 특징 데이터를 메모리부(260)에 등록된 단어의 특징 데이터와 비교한다. 본 발명의 제 1실시 예에서 '목적지'란 명령어에 대한 특징 데이터가 메모리부(260)에 등록되어 있기 때문에, 제어부(200)는 '경복궁'을 목적지로 인식하고, 다음 입력을 기다리게 된다. '경복궁'이 목적지로 인식된 후에, 사용자로부터 '경로 검색'이라는 단어가 음성으로 입력되면, 음성 인식부(250)는 입력된 단어의 특징 데이터를 추출하고, 제어부(200)는 상기 추출된 단어의 특징 데이터를 메모리부(260)에 등록된 단어의 특징 데이터와 비교한다. '경로 검색'이라는 명령어의 특징 데이터 역시 메모리부(260)에 등록되어 있기 때문에, 제어부(200)는 '경복궁'까지의 경로를 검색하고, 이를 화면을 통하여 출력한다. 4B illustrates an example in which the user inputs the words 'destination' and 'path search' by voice on the screen of FIG. 4A. When the word 'destination' is input, the speech recognition unit 250 extracts the feature data of the input word, and the controller 200 extracts the feature data of the extracted word from the feature data of the word registered in the memory unit 260. Compare with In the first embodiment of the present invention, since the feature data for the command 'destination' is registered in the memory unit 260, the controller 200 recognizes 'Gyeongbokgung' as a destination and waits for the next input. After 'Gyeongbokgung' is recognized as a destination, if the word 'path search' is input from the user by voice, the voice recognition unit 250 extracts feature data of the input word, and the controller 200 extracts the extracted word. Is compared with the feature data of the word registered in the memory unit 260. Since the feature data of the command 'path search' is also registered in the memory unit 260, the controller 200 searches for a path to 'Gyeongbokgung' and outputs it through the screen.

도 4의 (c)는 사용자로부터 '경희궁'이라는 단어가 음성으로 입력된 경우를 보여준 예이다. 4C illustrates an example in which the word 'Gyeonghuigung' is input by voice from a user.

음성 인식부(250)는 입력된 단어 '경희궁'의 특징 데이터를 추출하고, 제어부(200)는 상기 추출된 단어의 특징 데이터를 메모리부(260)에 등록된 단어의 특징 데이터와 비교한다. '경희궁'이라는 단어는 메모리부(260)에 저장되어 있지만, 특징 데이터는 등록되어있지 않기 때문에, 제어부(200)는 입력된 음성과 유사하다고 판단하는 '경희궁, 경희대'를 화면으로 출력한다. 이때, 사용자는 '아래', '위' 및 '확인' 등의 제어 명령어를 음성으로 입력하여 원하는 단어를 선택할 수 있다. The voice recognition unit 250 extracts the input feature data of the word 'Gyeonghuigung', and the controller 200 compares the extracted feature data of the word with the feature data of the word registered in the memory unit 260. Although the word 'Gyeonghuigung' is stored in the memory unit 260, but the feature data is not registered, the control unit 200 outputs 'Gyeonghuigung, Kyungheedae' which is determined to be similar to the input voice on the screen. In this case, the user may input a control command such as 'down', 'up' and 'confirmation' by voice to select a desired word.

도 5는 본 발명의 제 2실시 예에 따른 음성 인식 방법을 나타낸 흐름도이다. 이하, 네비게이션의 검색 모드에서 본 발명의 제 2실시 예에 따른 음성 인식 방법을 상세히 설명한다. 5 is a flowchart illustrating a voice recognition method according to a second embodiment of the present invention. Hereinafter, a voice recognition method according to a second embodiment of the present invention in a navigation search mode will be described in detail.

단계(500)에서 제어부(200)는 음성을 통한 단어 입력이 있는지 판단하고, 단어입력이 있다면 단계(502)로 진행한다. 단계(502)에서 음성 인식부(250)는 입력된 단어의 특징 데이터 및 초성 특징 데이터를 추출한다.In step 500, the controller 200 determines whether there is a word input through voice, and if there is a word input, the process proceeds to step 502. In operation 502, the speech recognizer 250 extracts feature data and initial feature data of the input word.

단계(504)에서 제어부(200)는 음성 인식부(250)에서 추출된 단어 특징 데이터와 메모리부(260)에 미리 등록된 단어 특징 데이터를 비교한 후, 단계(506)로 진행한다. 단계(506)에서 제어부(200)는 추출된 단어 특징 데이터와 일치하는 미리 등록된 단어 특징 데이터가 있다면 단계(508)로 진행하고, 그렇지 않으면 단계(530)로 진행한다. In operation 504, the controller 200 compares the word feature data extracted by the speech recognition unit 250 with the word feature data registered in advance in the memory unit 260, and then proceeds to operation 506. In step 506 the controller 200 proceeds to step 508 if there is pre-registered word feature data that matches the extracted word feature data, otherwise proceeds to step 530.

단계(508)에서 제어부(200)는 상기 일치하는 단어가 제어 명령인지 판단하고, 제어 명령이라면 단계(510)로 진행하고, 그렇지 않으면 단계(520)로 진행한다. 단계(510)에서 제어부(200)는 제어 명령을 수행한 후, 단계(500)로 진행한다. In step 508, the controller 200 determines whether the matched word is a control command, and if so, proceeds to step 510; otherwise, proceeds to step 520. In step 510, the controller 200 performs a control command, and then proceeds to step 500.

한편, 단계(508)에서 상기 일치하는 단어가 제어 명령이 아닌 지명이라고 판단하여 진행한 단계(520)에서, 제어부(200)는 상기 지명을 음성 및 영상으로 출력한 후, 단계(500)로 진행한다. 이때, 미리 정해진 설정에 따라 제어부(200)는 상기 지명에 해당하는 지역의 지도를 영상으로 출력할 수 있다. Meanwhile, in step 520 where the matching word is determined as a place name instead of a control command in step 508, the control unit 200 outputs the place name in voice and video, and then proceeds to step 500. do. At this time, according to a predetermined setting, the controller 200 may output a map of the area corresponding to the place name as an image.

한편, 단계(506)에서 상기 추출된 단어 특징 데이터와 일치하는 미리 등록된 단어가 없다고 판단하여 진행한 단계(530)에서, 제어부(200)는 추출된 초성 특징 데이터로 메모리부(260)에 저장된 단어를 검색한 후, 단계(532)로 진행한다. 단 계(532)에서 제어부(200)는 상기 추출된 초성 특징 데이터와 일치하는 미리 저장된 단어가 있다면 단계(534)로 진행하고, 그렇지 않으면 (536)단계로 진행한다. 단계(534)에서 제어부(200)는 상기 초성 특징 데이터가 일치하는 단어들을 음성 또는 영상으로 출력한 후, 단계(500)로 진행한다. On the other hand, in step 530 where it is determined that there is no pre-registered word that matches the extracted word feature data in step 506, the controller 200 stores the extracted initial feature data in the memory unit 260. After searching for the word, step 532 is reached. In step 532, the control unit 200 proceeds to step 534 if there is a pre-stored word that matches the extracted initial feature data, otherwise proceeds to step 536. In step 534, the control unit 200 outputs words in which the initial characteristic data match, as audio or video, and then proceeds to step 500.

한편, 단계(536)에서 제어부(200)는 상기 초성 특징 데이터와 유사한 특징을 갖는 후보 단어를 출력한 후, 단계(500)로 진행한다. In operation 536, the controller 200 outputs a candidate word having a feature similar to the initial characteristic data, and then proceeds to operation 500.

도 6은 본 발명의 제 2실시 예에 따른 음성 인식 과정을 보여준 예시도이다. 6 is an exemplary view illustrating a voice recognition process according to a second embodiment of the present invention.

도 6의 (a)는 사용자로부터 초성'ㄱㅎㄱ'이 음성으로 입력된 경우를 보여주는 도면이다. 초성이 하나씩 입력될 때마다 음성 인식부(250)는 메모리에 등록된 초성 특징 데이터와 비교하고, 일치하는 초성에 대하여 이를 화면에 출력한다. FIG. 6 (a) is a diagram illustrating a case where a first consonant 'ㄱㅎㄱ' is input by voice from a user. Each time the first consonants are input, the voice recognition unit 250 compares the first consonant feature data registered in the memory and outputs the matching first consonants to the screen.

사용자가 원하는 초성'ㄱㅎㄱ'이 모두 인식된 것을 확인한 후에 사용자가 '확인'이라는 명령어를 음성으로 입력하면, 제어부(200)는 초성'ㄱㅎㄱ'을 포함하는 단어가 등록되어 있는지 메모리부(260)에서 검색한다. 만약, '경희궁'이라는 단어의 특징 데이터가 등록되어 있다면, 제어부(200)는 도 5의 (b)와 같이 '경희궁'을 화면에 출력하고 다음 입력을 기다리게 된다. After confirming that the user's desired initial consonant 'ㄱㅎㄱ' has been recognized, when the user inputs the command 'confirmation' by voice, the controller 200 determines whether a word including the initial consonant 'ㄱㅎㄱ' is registered in the memory unit 260. Search. If the feature data of the word 'Gyeonghuigung' is registered, the controller 200 outputs 'Gyeonghuigung' on the screen and waits for the next input as shown in FIG.

만약, '경희궁'이라는 단어가 메모리부(260)에 저장되어 있기는 하나, 특징 데이터가 등록되어 있지 않은 경우, 제어부(200)는 후보 단어 제시에 이를 참조할 수 있다. 후보 단어 제시에 있어서, 예를 들어, 입력된 초성 특징 데이터 중 2개 이상의 특징 데이터가 일치하면 후보 단어로써 제시하도록 설정되어 있다면, 제어 부(200)는 메모리부(260)에 저장된 3개의 단어'경복궁', '경희궁', '경희대' 중 초성 'ㄱ, ㅎ'이 들어가는 단어 '경희궁'과 '경희대'를 도 5의 (c)와 같이 후보 단어로써 제시하게 된다. 이후 사용자에 의하여 입력되는 음성 제어 명령을 통해 원하는 지명이 선택되고, 이를 화면에 표시 및 상기 지명까지의 경로 검색에 관한 방법 등은 도 4에서 설명한 바와 같다. If the word 'Gyeonghuigung' is stored in the memory unit 260, but the feature data is not registered, the controller 200 may refer to the candidate word presentation. In the candidate word presentation, for example, if two or more feature data of the input initial characteristic data are set to be presented as candidate words, the control unit 200 determines three words stored in the memory unit 260 '. The words 'Gyeonghui Palace' and 'Gyeonghui University', which contain the initial 'a' and 'he' among Gyeongbokgung, 'Gyeonghuigung' and 'Gyeonghuidae', are presented as candidate words as shown in FIG. Thereafter, a desired place name is selected through a voice control command input by the user, the display of the place name on the screen, and a method for searching for a route up to the place name are as described with reference to FIG. 4.

상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시될 수 있다. 예를 들어, 음성 입력 단어가 주소에 해당하는 경우, 동 이름만으로 타당서 있는 후보의 범위를 축소할 수 있을 것이고, 입력된 음성이 전체로서 숫자에 해당한다면 전화 번호부 정보와 연결하여 전화 번호부에 저장된 주소를 경로 검색에 활용할 수도 있다. 또한, 이동 단말기의 경우, 음성 인식부 및 지도 정보 서버를 따로 구성하여 운영할 수도 있다. 따라서, 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해져야 한다.In the above description of the present invention, specific embodiments have been described, but various modifications may be made without departing from the scope of the present invention. For example, if the voice input word corresponds to an address, the name can be used to reduce the range of valid candidates, and if the input voice corresponds to a number as a whole, it is stored in the phone book in conjunction with the phone book information. You can also use the address for route searches. In the case of a mobile terminal, the voice recognition unit and the map information server may be separately configured and operated. Therefore, the scope of the present invention should not be defined by the described embodiments, but should be determined by the equivalent of claims and claims.

도 1은 단어, 초성 및 숫자의 특징 데이터가 등록된 상태를 보여주는 예시도,1 is an exemplary view showing a state in which feature data of words, initials, and numbers is registered;

도 2는 본 발명의 일실시 예에 따른 음성 인식 장치의 블록도, 2 is a block diagram of a speech recognition apparatus according to an embodiment of the present invention;

도 3은 본 발명의 제 1실시 예에 따른 음성 인식 방법을 나타내는 흐름도, 3 is a flowchart illustrating a voice recognition method according to a first embodiment of the present invention;

도 4는 본 발명의 제 1실시 예에 따른 음성 인식 과정을 보여주는 예시도,4 is an exemplary view showing a voice recognition process according to a first embodiment of the present invention;

도 5는 본 발명의 제 2실시 예에 따른 음성 인식 방법을 나타내는 흐름도, 5 is a flowchart illustrating a voice recognition method according to a second embodiment of the present invention;

도 6은 본 발명의 제 2실시 예에 따른 음성 인식 과정을 보여주는 예시도.6 is an exemplary view showing a voice recognition process according to a second embodiment of the present invention.

Claims (22)

(a) 음성을 통하여 입력된 단어의 특징 데이터를 추출하는 단계;(a) extracting feature data of a word input through voice; (b) 상기 추출된 단어 특징 데이터와 미리 등록된 단어 특징 데이터를 비교함으로써 상기 단어를 인식하는 단계; (b) recognizing the word by comparing the extracted word feature data with previously registered word feature data; (c) 상기 추출된 단어 특징 데이터와 일치하는 상기 미리 등록된 단어 특징 데이터를 갖는 등록 단어가 없다면, 상기 입력된 음성의 초성 특징 데이터를 추출하는 단계; 및(c) if there is no registered word having the pre-registered word feature data that matches the extracted word feature data, extracting the initial feature data of the input voice; And (d) 상기 추출된 초성 특징 데이터를 미리 등록된 초성 특징 데이터와 비교함으로써 상기 단어를 인식하는 단계(d) recognizing the word by comparing the extracted first characteristic data with previously registered first characteristic data 를 포함하는 네비게이션 시스템에 이용되는 음성 인식 방법. Speech recognition method used in a navigation system comprising a. 제 1항에 있어서, The method of claim 1, 상기 추출된 초성 특징 데이터와 일치하는 상기 미리 등록된 초성 특징 데이터가 없다면, 상기 추출된 초성 특징 데이터와 유사한 초성 특징 데이터를 갖는 후보 단어를 출력하고, 상기 출력된 후보 단어 중 어느 하나를 선택하는 사용자의 선택을 입력받는 단계If there is no pre-registered first characteristic data that matches the extracted first characteristic data, the user outputs a candidate word having first characteristic data similar to the extracted first characteristic data, and selects one of the output candidate words. Step of receiving selection of 를 더 포함하는 네비게이션 시스템에 이용되는 음성 인식 방법. Speech recognition method used in the navigation system further comprising. 제 1항에 있어서, The method of claim 1, 상기 추출된 초성 특징 데이터와 일치하는 상기 미리 등록된 초성 특징 데이터를 갖는 상기 등록 단어가 다수 개인 경우, 상기 다수 개의 등록 단어를 출력하고, 상기 출력된 등록 단어 중 어느 하나를 선택하는 사용자의 선택을 입력받는 단계When there are a plurality of registered words having the pre-registered first characteristic data that matches the extracted first characteristic data, the plurality of registered words are output, and a user's selection of selecting one of the output registered words is selected. Receiving step 를 더 포함하는 네비게이션 시스템에 이용되는 음성 인식 방법. Speech recognition method used in the navigation system further comprising. 제 2항 또는 제 3항에 있어서, The method of claim 2 or 3, 상기 사용자의 선택은 음성 입력 또는 키 입력을 통하여 이루어지는The user's selection is made through voice input or key input. 네비게이션 시스템에 이용되는 음성 인식 방법. Speech recognition method used in navigation system. 제 2항 또는 제 3항에 있어서, The method of claim 2 or 3, 화면에 표시되는 지역을 상기 선택된 단어에 해당하는 지역으로 이동시키는 단계Moving an area displayed on the screen to an area corresponding to the selected word; 를 더 포함하는 네비게이션 시스템에 이용되는 음성 인식 방법. Speech recognition method used in the navigation system further comprising. 제 2항 또는 제 3항에 있어서, The method of claim 2 or 3, 상기 선택된 단어에 해당하는 지역까지의 예상 이동 경로를 분석하는 단계Analyzing an expected moving route to an area corresponding to the selected word 를 더 포함하는 네비게이션 시스템에 이용되는 음성 인식 방법. Speech recognition method used in the navigation system further comprising. 제 1항에 있어서, 상기 (b) 단계는, According to claim 1, wherein step (b), 상기 추출된 단어 특징 데이터와 일치하는 상기 미리 등록된 단어 특징 데이터를 갖는 등록 단어가 있는 경우, 상기 등록 단어가 지명이라면 상기 등록 단어를 출력하는 단계If there is a registered word having the pre-registered word feature data that matches the extracted word feature data, outputting the registered word if the registered word is a designated name; 를 포함하는 네비게이션 시스템에 이용되는 음성 인식 방법. Speech recognition method used in a navigation system comprising a. 제 7항에 있어서, The method of claim 7, wherein 화면에 표시되는 지역을 상기 지명에 해당하는 지역으로 이동시키는 단계Moving an area displayed on the screen to an area corresponding to the place name; 를 더 포함하는 네비게이션 시스템에 이용되는 음성 인식 방법. Speech recognition method used in the navigation system further comprising. 제 7항 또는 제 8항에 있어서, The method according to claim 7 or 8, 상기 지명에 해당하는 지역까지의 예상 이동 경로를 분석하는 단계Analyzing the expected movement route to the region corresponding to the place name 를 더 포함하는 네비게이션 시스템에 이용되는 음성 인식 방법. Speech recognition method used in the navigation system further comprising. 제 7항에 있어서, The method of claim 7, wherein 상기 등록 단어가 제어 명령이라면 상기 제어 명령을 수행하는 단계If the registered word is a control command, performing the control command 를 포함하는 네비게이션 시스템에 이용되는 음성 인식 방법. Speech recognition method used in a navigation system comprising a. 제 1항에 있어서, The method of claim 1, 시스템 성능에 따라 상기 등록되는 단어 특징 데이터의 수를 제어하는To control the number of registered word feature data according to system performance 네비게이션 시스템에 이용되는 음성 인식 방법Speech recognition method used in navigation system 음성을 통하여 단어를 입력받는 음성 입력부;A voice input unit for receiving a word through voice; 상기 음성 입력된 단어의 단어 특징 데이터 및 초성 특징 데이터를 추출하는 음성 인식부; 및A speech recognition unit for extracting word feature data and initial feature data of the voice input word; And 상기 추출된 단어 특징 데이터를 미리 등록된 단어 특징 데이터와 비교하고, 상기 추출된 단어 특징 데이터와 일치하는 상기 미리 등록된 단어 특징 데이터를 갖는 등록 단어가 없다면, 상기 추출된 초성 특징 데이터를 미리 등록된 초성 특성 데이터와 비교하여 음성 인식을 수행하는 제어부The extracted word feature data is compared with pre-registered word feature data, and if there is no registered word having the pre-registered word feature data that matches the extracted word feature data, the extracted initial feature data is pre-registered. Control unit for performing speech recognition compared to the initial property data 를 포함하는 네비게이션 시스템에 이용되는 음성 인식 장치. Speech recognition device used in a navigation system comprising a. 제 12항에 있어서, 상기 제어부는, The method of claim 12, wherein the control unit, 상기 추출된 초성 특징 데이터와 일치하는 상기 미리 등록된 초성 특징 데이터가 없다면, 상기 추출된 초성 특징 데이터와 유사한 초성 특징 데이터를 갖는 후보 단어를 출력하고, 상기 출력된 후보 단어 중 어느 하나를 선택하는 신호를 입력받는 A signal for outputting a candidate word having first characteristic data similar to the extracted first characteristic data if there is no pre-registered first characteristic data corresponding to the extracted first characteristic data, and selecting one of the output candidate first characteristic data Receiving input 네비게이션 시스템에 이용되는 음성 인식 장치. Speech recognition device used in a navigation system. 제 12항에 있어서, 상기 제어부는, The method of claim 12, wherein the control unit, 상기 추출된 초성 특징 데이터와 일치하는 상기 미리 등록된 초성 특징 데이터를 갖는 상기 등록 단어가 다수 개인 경우, 상기 다수 개의 등록 단어를 출력하고, 상기 출력된 등록 단어 중 어느 하나를 선택하는 신호를 입력받는When there are a plurality of registered words having the pre-registered first characteristic data that matches the extracted first characteristic data, the plurality of registered words are output, and a signal for selecting any one of the output registered words is received. 네비게이션 시스템에 이용되는 음성 인식 장치. Speech recognition device used in a navigation system. 제 13항 또는 제 14항에 있어서, The method according to claim 13 or 14, 상기 출력된 단어 중 어느 하나를 선택하는 사용자의 입력을 받는 키 입력부 및 음성 입력부 중 하나 이상을 포함하는It includes at least one of a key input unit and a voice input unit for receiving a user input for selecting any one of the output words 네비게이션 시스템에 이용되는 음성 인식 장치. Speech recognition device used in a navigation system. 제 13항 또는 제 14항에 있어서, 상기 제어부는, The method of claim 13 or 14, wherein the control unit, 상기 선택된 단어에 해당하는 지역에 관한 영상 신호를 출력하는Outputting an image signal for a region corresponding to the selected word 네비게이션 시스템에 이용되는 음성 인식 장치.Speech recognition device used in a navigation system. 제 13항 또는 제 14항에 있어서, 상기 제어부는, The method of claim 13 or 14, wherein the control unit, 상기 단어에 해당하는 지점까지의 예상 이동 경로를 분석하는Analyze the expected travel path to the point corresponding to the word 네비게이션 시스템에 이용되는 음성 인식 장치. Speech recognition device used in a navigation system. 제 12항에 있어서, 상기 제어부는, The method of claim 12, wherein the control unit, 상기 추출된 단어 특징 데이터와 일치하는 상기 미리 등록된 단어 특징 데이터를 갖는 등록 단어가 있는 경우, 상기 등록 단어가 지명이라면 상기 등록 단어를 출력하는 If there is a registered word having the pre-registered word feature data that matches the extracted word feature data, the registered word is output if the registered word is a name. 네비게이션 시스템에 이용되는 음성 인식 장치. Speech recognition device used in a navigation system. 제 18항에 있어서, 상기 제어부는, The method of claim 18, wherein the control unit, 상기 지명에 해당하는 지역에 관한 영상 신호를 출력하는Outputting a video signal for a region corresponding to the place name 네비게이션 시스템에 이용되는 음성 인식 장치. Speech recognition device used in a navigation system. 제 18항 또는 제 19항에 있어서, 상기 제어부는, The method of claim 18 or 19, wherein the control unit, 상기 지명에 해당하는 지역까지의 예상 이동 경로를 분석하는Analyze the expected route to the area corresponding to the place name 네비게이션 시스템에 이용되는 음성 인식 장치. Speech recognition device used in a navigation system. 제 18항에 있어서, 상기 제어부는, The method of claim 18, wherein the control unit, 상기 등록 단어가 제어 명령이라면 상기 제어 명령을 수행하는 If the registered word is a control command to perform the control command 네비게이션 시스템에 이용되는 음성 인식 장치. Speech recognition device used in a navigation system. 제 12항에 있어서, The method of claim 12, 시스템 성능에 따라 상기 등록되는 단어 특징 데이터의 수를 제어하는To control the number of registered word feature data according to system performance 네비게이션 시스템에 이용되는 음성 인식 장치. Speech recognition device used in a navigation system.
KR1020070088918A 2006-12-05 2007-09-03 The method and apparatus for recognizing speech for navigation system KR100919227B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20060122297 2006-12-05
KR1020060122297 2006-12-05

Publications (2)

Publication Number Publication Date
KR20080052306A true KR20080052306A (en) 2008-06-11
KR100919227B1 KR100919227B1 (en) 2009-09-28

Family

ID=39807141

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070088918A KR100919227B1 (en) 2006-12-05 2007-09-03 The method and apparatus for recognizing speech for navigation system

Country Status (1)

Country Link
KR (1) KR100919227B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102063901A (en) * 2010-12-02 2011-05-18 深圳市凯立德欣软件技术有限公司 Voice identification method for position service equipment and position service equipment
WO2015167076A1 (en) * 2014-04-30 2015-11-05 현대엠엔소프트 주식회사 Voice recognition-based navigation system control method and navigation system
WO2015167077A1 (en) * 2014-04-30 2015-11-05 현대엠엔소프트 주식회사 Navigation apparatus and control method therefor

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR930011739B1 (en) * 1988-08-31 1993-12-18 주식회사 금성사 Method of speech recognition
KR100679042B1 (en) * 2004-10-27 2007-02-06 삼성전자주식회사 Method and apparatus for speech recognition, and navigation system using for the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102063901A (en) * 2010-12-02 2011-05-18 深圳市凯立德欣软件技术有限公司 Voice identification method for position service equipment and position service equipment
WO2015167076A1 (en) * 2014-04-30 2015-11-05 현대엠엔소프트 주식회사 Voice recognition-based navigation system control method and navigation system
WO2015167077A1 (en) * 2014-04-30 2015-11-05 현대엠엔소프트 주식회사 Navigation apparatus and control method therefor

Also Published As

Publication number Publication date
KR100919227B1 (en) 2009-09-28

Similar Documents

Publication Publication Date Title
JP3962763B2 (en) Dialogue support device
KR100790700B1 (en) Speech recognition assisted autocompletion of composite characters
JP5048174B2 (en) Method and apparatus for recognizing user utterance
KR101109265B1 (en) Method for entering text
US7949524B2 (en) Speech recognition correction with standby-word dictionary
EP3039531B1 (en) Display apparatus and controlling method thereof
KR101819458B1 (en) Voice recognition apparatus and system
JP2006031092A (en) Voice character input program and portable terminal
JP2015510176A (en) Input processing method and apparatus
JP2007538278A (en) Speech recognition system
CN109326284B (en) Voice search method, apparatus and storage medium
CN107832035B (en) Voice input method of intelligent terminal
CN110827803A (en) Method, device and equipment for constructing dialect pronunciation dictionary and readable storage medium
US20170372695A1 (en) Information providing system
WO2001082043A2 (en) Constrained keyboard disambiguation using voice recognition
KR100919227B1 (en) The method and apparatus for recognizing speech for navigation system
KR101001134B1 (en) System for searching korean word in mobile termianl and method thereof
CN110827815B (en) Voice recognition method, terminal, system and computer storage medium
JP2011221591A (en) Map retrieval system
JP4498906B2 (en) Voice recognition device
JP4622861B2 (en) Voice input system, voice input method, and voice input program
KR20110017600A (en) Apparatus for word entry searching in a portable electronic dictionary and method thereof
JP2003140682A (en) Voice recognition device and voice dictionary generation method
KR101373206B1 (en) Method for input message using voice recognition and image recognition in Mobile terminal
JP2007193184A (en) Speech address recognition apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121214

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee