JP2010128144A - Speech recognition device and program - Google Patents

Speech recognition device and program Download PDF

Info

Publication number
JP2010128144A
JP2010128144A JP2008302231A JP2008302231A JP2010128144A JP 2010128144 A JP2010128144 A JP 2010128144A JP 2008302231 A JP2008302231 A JP 2008302231A JP 2008302231 A JP2008302231 A JP 2008302231A JP 2010128144 A JP2010128144 A JP 2010128144A
Authority
JP
Japan
Prior art keywords
word
speech recognition
information
utterance
words
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008302231A
Other languages
Japanese (ja)
Other versions
JP5455355B2 (en
Inventor
Iko Terasawa
位好 寺澤
Kinichi Wada
錦一 和田
Hiroaki Sekiyama
博昭 関山
Toshiyuki Nanba
利行 難波
Keisuke Okamoto
圭介 岡本
Kunio Yokoi
邦雄 横井
Naoki Miura
直樹 三浦
Osamu Iwata
收 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Aisin AW Co Ltd
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Ten Ltd
Aisin AW Co Ltd
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd, Aisin AW Co Ltd, Denso Corp, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Denso Ten Ltd
Priority to JP2008302231A priority Critical patent/JP5455355B2/en
Publication of JP2010128144A publication Critical patent/JP2010128144A/en
Application granted granted Critical
Publication of JP5455355B2 publication Critical patent/JP5455355B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To simultaneously show recognizable utterance contents and an utterance method to a user. <P>SOLUTION: A one's own vehicle location is acquired by a GPS sensor 18 (100), an area around the one's own vehicle location is decided as a local area as a recognition target (102). From a word dictionary, a word group relating to the local area including the one's own vehicle location is selected as a candidate for speech recognition results (104). Using the selected word group, several kinds of utterance examples are generated (108) and output from a voice output part (112-118). Using the selected word group, speech recognition of input voice inputted for information retrieval is performed (120), and from an information database, information about a word obtained as the results of the speech recognition is retrieved (122). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、音声認識装置及びプログラムに係り、特に、入力音声に対する音声認識の結果の候補となる単語を制限する音声認識装置及びプログラムに関する。   The present invention relates to a speech recognition apparatus and program, and more particularly, to a speech recognition apparatus and program for restricting words that are candidates for speech recognition results for input speech.

従来より、利用状況に応じて音声認識辞書の語彙制限を行うと共に、ユーザの発話を促して、効率的に音声認識処理を行う音声認識装置が知られている(特許文献1)。この音声認識装置では、例えば、入力待ち情報種別が「施設名称」で、検索範囲が「愛知県」の場合、「愛知県の施設名称を入力して下さい」という応答文を生成している。   2. Description of the Related Art Conventionally, there has been known a speech recognition apparatus that performs speech recognition processing efficiently by restricting the vocabulary of a speech recognition dictionary according to the usage situation and prompting a user to speak. In this speech recognition apparatus, for example, when the input waiting information type is “facility name” and the search range is “Aichi Prefecture”, a response sentence “Please input the facility name of Aichi Prefecture” is generated.

また、音声認識装置の利用方法に対する熟知度合が異なる各利用者のいずれにとっても使い勝手を良くする音声認識装置が知られている(特許文献2)。この音声認識装置では、「目的地の設定が行えます」のように、音声入力にて指示可能な設定項目自体を案内したり、「目的地を設定するときは都道府県名から入力して下さい」というように、入力方法の説明を、ガイド内容として報知している。また、「例えば愛知県刈谷市昭和町と入力して下さい」というように、具体的な入力例をガイド内容として報知している。
特開2005−4143号公報 特開2000−181488号公報
Also, a speech recognition device is known that improves usability for each user who has a different level of familiarity with the method of using the speech recognition device (Patent Document 2). This voice recognition device guides the setting items that can be instructed by voice input, such as “You can set the destination,” or “Enter the name of the prefecture when setting the destination. As described above, the description of the input method is notified as the guide content. Also, a specific input example is informed as guide content, such as “Please enter Showa-cho, Kariya City, Aichi Prefecture”.
JP 2005-4143 A JP 2000-181488 A

しかしながら、上記の特許文献1に記載の技術では、ユーザは「何を」入力すれば良いかがわかるという利点があるものの、「どのように」入力したら良いかまではわからない、という問題がある。例えば、施設名称を単独で「名古屋大学」のように入力すべきなのか、地名と組み合わせて「千種区の名古屋大学」と入力すべきなのか、まではわからない、という問題がある。   However, although the technique described in Patent Document 1 has an advantage that the user can know what to input, there is a problem that the user does not know how to input. For example, there is a problem that it is not known whether the facility name should be entered as "Nagoya University" alone or in combination with the place name as "Nagoya University in Chikusa Ward".

また、上記の特許文献2に記載の技術では、「例えば愛知県刈谷市昭和町と入力して下さい」のように、どのように音声入力すべきかを報知するものの、音声認識の結果の候補を制限する場合に、認識できない単語を用いて報知してしまう場合があるため、認識可能な発話内容を教示することができない、という問題がある。   Further, in the technique described in Patent Document 2 above, although a notification of how to input speech is made, such as “Please enter Showamachi, Kariya City, Aichi Prefecture”, for example, candidates for the result of speech recognition are displayed. In the case of restriction, there is a case in which notification is performed using an unrecognizable word, and therefore there is a problem that the recognizable utterance content cannot be taught.

本発明は、上記の問題点を解決するためになされたもので、ユーザに対して、認識可能な発話内容と発話方法とを同時に教示することができる音声認識装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above problems, and an object of the present invention is to provide a speech recognition apparatus and program capable of simultaneously teaching a user to a recognizable utterance content and utterance method. And

上記の目的を達成するために第1の発明に係る音声認識装置は、自装置の位置を検出する位置検出手段と、複数の単語を格納した単語辞書が登録された辞書登録手段と、前記辞書登録手段に登録された前記単語辞書から、前記位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する選択手段と、前記選択手段によって選択された単語群を用いて、複数の発話例を生成する生成手段と、前記生成手段によって生成された複数の発話例を出力装置に出力させる発話例出力制御手段と、前記選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行う音声認識手段と、前記複数の単語に関する情報を格納した情報データベースから、前記音声認識手段による音声認識の結果として得られた単語に関する情報を検索する情報検索手段とを含んで構成されている。   In order to achieve the above object, a speech recognition apparatus according to a first invention comprises a position detection means for detecting the position of the own apparatus, a dictionary registration means in which a word dictionary storing a plurality of words is registered, and the dictionary Selecting means for selecting, from the word dictionary registered in the registration means, a word group related to a predetermined range including the position of the own device detected by the position detection means as a candidate of a result of speech recognition for the input speech; Generation means for generating a plurality of utterance examples using the word group selected by the selection means, utterance example output control means for outputting the plurality of utterance examples generated by the generation means to an output device, and the selection Speech recognition means for performing speech recognition of input speech input for information search using a word group selected by the means; and an information data base storing information on the plurality of words. From the scan is configured to include an information retrieval means for retrieving information about the words obtained as a result of the speech recognition by the speech recognition means.

第2の発明に係るプログラムは、コンピュータを、複数の単語を格納した単語辞書が登録された辞書登録手段、前記辞書登録手段に登録された前記単語辞書から、自装置の位置を検出する位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する選択手段、前記選択手段によって選択された単語群を用いて、複数の発話例を生成する生成手段、前記生成手段によって生成された複数の発話例を出力装置に出力させる発話例出力制御手段、前記選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行う音声認識手段、及び前記複数の単語に関する情報を格納した情報データベースから、前記音声認識手段による音声認識の結果として得られた単語に関する情報を検索する情報検索手段として機能させるためのプログラムである。   According to a second aspect of the present invention, there is provided a program for detecting a position of an own device from a dictionary registration unit in which a word dictionary storing a plurality of words is registered, and the word dictionary registered in the dictionary registration unit. Selection means for selecting a word group related to a predetermined range including the position of the own device detected by the means as a candidate of a result of speech recognition for the input speech, and using the word group selected by the selection means, a plurality of words Generation means for generating an utterance example, utterance example output control means for outputting a plurality of utterance examples generated by the generation means to an output device, input for information retrieval using a word group selected by the selection means Speech recognition means for performing speech recognition of the input speech and an information database storing information related to the plurality of words. Is a program for functioning as the search for information retrieval unit information about the words obtained as a result of.

第1の発明及び第2の発明によれば、位置検出手段によって、自装置の位置を検出する。選択手段によって、辞書登録手段に登録された単語辞書から、位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する。   According to the first and second inventions, the position of the device itself is detected by the position detection means. The selection means selects, from the word dictionary registered in the dictionary registration means, a word group related to a predetermined range including the position of the own device detected by the position detection means as a candidate for the result of speech recognition for the input speech.

そして、生成手段によって、選択手段によって選択された単語群を用いて、複数の発話例を生成し、発話例出力制御手段によって、生成手段によって生成された複数の発話例を出力装置に出力させる。   Then, the generation unit generates a plurality of utterance examples using the word group selected by the selection unit, and the utterance example output control unit causes the output unit to output the plurality of utterance examples generated by the generation unit.

そして、音声認識手段によって、選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行い、情報検索手段によって、複数の単語に関する情報を格納した情報データベースから、音声認識手段による音声認識の結果として得られた単語に関する情報を検索する。   The speech recognition means performs speech recognition of the input speech input for information retrieval using the word group selected by the selection means, and stores information related to a plurality of words by the information retrieval means Then, information regarding words obtained as a result of speech recognition by the speech recognition means is retrieved.

このように、単語辞書から、自装置の位置を含む所定範囲に関連する単語群を音声認識の結果の候補として選択し、選択された単語群を用いた複数の発話例を生成して、出力装置に出力させることにより、情報検索のための音声認識処理の認識率を向上させることができると共に、ユーザに対して、認識可能な発話内容と発話方法とを同時に教示することができる。   Thus, from the word dictionary, a word group related to a predetermined range including the position of the own device is selected as a candidate for the result of speech recognition, and a plurality of utterance examples using the selected word group are generated and output. By outputting the information to the apparatus, the recognition rate of the speech recognition process for information retrieval can be improved, and the recognizable utterance contents and the utterance method can be simultaneously taught to the user.

第3の発明に係る音声認識装置は、自装置の位置を検出する位置検出手段と、複数の単語を格納した単語辞書が登録された辞書登録手段と、前記辞書登録手段に登録された前記単語辞書から、前記位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する選択手段と、前記選択手段によって選択された単語群に含まれる単語を用いて、発話例を生成すると共に、前記単語辞書に格納された複数の単語のうち、前記選択手段によって選択されなかった単語を用いて、発話禁止例を生成する生成手段と、前記生成手段によって生成された発話例及び発話禁止例を出力装置に出力させる発話例出力制御手段と、前記選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行う音声認識手段と、前記複数の単語に関する情報を格納した情報データベースから、前記音声認識手段による音声認識の結果として得られた単語に関する情報を検索する情報検索手段とを含んで構成されている。   According to a third aspect of the present invention, there is provided a speech recognition apparatus comprising: a position detection means for detecting the position of the own apparatus; a dictionary registration means in which a word dictionary storing a plurality of words is registered; and the word registered in the dictionary registration means Selection means for selecting a word group related to a predetermined range including the position of the own device detected by the position detection means from the dictionary as a candidate for the result of speech recognition for the input speech; and the word selected by the selection means Generating means for generating an utterance example using a word included in a group and generating an utterance prohibition example using a word not selected by the selecting means among a plurality of words stored in the word dictionary An utterance example output control unit that causes an output device to output an utterance example and an utterance prohibition example generated by the generation unit, and a word group selected by the selection unit, Search for information related to a word obtained as a result of speech recognition by the speech recognition means from speech recognition means for performing speech recognition of input speech input for searching and an information database storing information related to the plurality of words Information search means.

第4の発明に係るプログラムは、コンピュータを、複数の単語を格納した単語辞書が登録された辞書登録手段、前記辞書登録手段に登録された前記単語辞書から、自装置の位置を検出する位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する選択手段、前記選択手段によって選択された単語群に含まれる単語を用いて、発話例を生成すると共に、前記単語辞書に格納された複数の単語のうち、前記選択手段によって選択されなかった単語を用いて、発話禁止例を生成する生成手段、前記生成手段によって生成された発話例及び発話禁止例を出力装置に出力させる発話例出力制御手段、前記選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行う音声認識手段、及び前記複数の単語に関する情報を格納した情報データベースから、前記音声認識手段による音声認識の結果として得られた単語に関する情報を検索する情報検索手段として機能させるためのプログラムである。   According to a fourth aspect of the present invention, there is provided a program for detecting a position of an own device from a dictionary registration unit in which a word dictionary storing a plurality of words is registered, and the word dictionary registered in the dictionary registration unit. Selection means for selecting a word group related to a predetermined range including the position of the own device detected by the means as a candidate for a result of speech recognition for the input speech, and using a word included in the word group selected by the selection means Generating an utterance example, and generating a utterance prohibition example using a word not selected by the selection means among a plurality of words stored in the word dictionary, generated by the generation means The utterance example output control means for outputting the utterance example and the utterance prohibition example to the output device, and the word group selected by the selection means are used for information retrieval. A speech recognition unit for performing speech recognition of the input speech, and an information search unit for searching for information about a word obtained as a result of speech recognition by the speech recognition unit from an information database storing information about the plurality of words It is a program to make it function.

第3の発明及び第4の発明によれば、位置検出手段によって、自装置の位置を検出する。選択手段によって、辞書登録手段に登録された単語辞書から、位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する。   According to 3rd invention and 4th invention, the position of an own apparatus is detected by a position detection means. The selection means selects, from the word dictionary registered in the dictionary registration means, a word group related to a predetermined range including the position of the own device detected by the position detection means as a candidate for the result of speech recognition for the input speech.

そして、生成手段によって、選択手段によって選択された単語群に含まれる単語を用いて、発話例を生成すると共に、単語辞書に格納された複数の単語のうち、選択手段によって選択されなかった単語を用いて、発話禁止例を生成する。発話例出力制御手段によって、生成手段によって生成された発話例及び発話禁止例を出力装置に出力させる。   Then, the generation unit generates an utterance example using the words included in the word group selected by the selection unit, and among the plurality of words stored in the word dictionary, the word not selected by the selection unit To generate an utterance prohibition example. The utterance example output control means causes the output device to output the utterance example and the utterance prohibition example generated by the generation means.

そして、音声認識手段によって、選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行い、情報検索手段によって、複数の単語に関する情報を格納した情報データベースから、音声認識手段による音声認識の結果として得られた単語に関する情報を検索する。   The speech recognition means performs speech recognition of the input speech input for information retrieval using the word group selected by the selection means, and stores information related to a plurality of words by the information retrieval means Then, information regarding words obtained as a result of speech recognition by the speech recognition means is retrieved.

このように、単語辞書から、自装置の位置を含む所定範囲に関連する単語群を音声認識の結果の候補として選択し、選択された単語群を用いた発話例と、選択されなかった単語を用いた発話禁止例とを生成して、出力装置に出力させることにより、情報検索のための音声認識処理の認識率を向上させることができると共に、ユーザに対して、認識可能な発話内容と発話方法とを同時に教示することができる。   Thus, from the word dictionary, a word group related to a predetermined range including the position of its own device is selected as a candidate for the result of speech recognition, and an utterance example using the selected word group and an unselected word are selected. By generating the utterance prohibition example used and outputting it to the output device, the recognition rate of the speech recognition process for information retrieval can be improved, and the utterance content and utterance that can be recognized by the user The method can be taught simultaneously.

第5の発明に係る音声認識装置は、自装置の位置を検出する位置検出手段と、複数の単語を格納した単語辞書が登録された辞書登録手段と、前記辞書登録手段に登録された前記単語辞書から、前記位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する選択手段と、前記単語辞書に格納された複数の単語のうち、前記選択手段によって選択されなかった複数の単語を用いて、複数の発話禁止例を生成する生成手段と、前記生成手段によって生成された発話禁止例を出力装置に出力させる発話例出力制御手段と、前記選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行う音声認識手段と、前記複数の単語に関する情報を格納した情報データベースから、前記音声認識手段による音声認識の結果として得られた単語に関する情報を検索する情報検索手段とを含んで構成されている。   According to a fifth aspect of the present invention, there is provided a speech recognition apparatus comprising: a position detection means for detecting the position of the own apparatus; a dictionary registration means in which a word dictionary storing a plurality of words is registered; and the word registered in the dictionary registration means Selection means for selecting a word group related to a predetermined range including the position of the own device detected by the position detection means from the dictionary as candidates for the result of speech recognition for the input speech, and a plurality of words stored in the word dictionary Generation means for generating a plurality of speech prohibition examples using a plurality of words not selected by the selection means, and an utterance example that causes the output device to output the speech prohibition examples generated by the generation means An output control unit, a speech recognition unit that performs speech recognition of an input speech input for information retrieval using the word group selected by the selection unit, and the plurality of words Information from the information database storing is configured to include an information retrieval means for retrieving information about the words obtained as a result of the speech recognition by the speech recognition means.

第6の発明に係るプログラムは、コンピュータを、複数の単語を格納した単語辞書が登録された辞書登録手段、前記辞書登録手段に登録された前記単語辞書から、自装置の位置を検出する位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する選択手段、前記単語辞書に格納された複数の単語のうち、前記選択手段によって選択されなかった複数の単語を用いて、複数の発話禁止例を生成する生成手段、前記生成手段によって生成された発話禁止例を出力装置に出力させる発話例出力制御手段、前記選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行う音声認識手段、及び前記複数の単語に関する情報を格納した情報データベースから、前記音声認識手段による音声認識の結果として得られた単語に関する情報を検索する情報検索手段として機能させるためのプログラムである。   According to a sixth aspect of the present invention, there is provided a program for detecting a position of an own device from a dictionary registration unit in which a word dictionary storing a plurality of words is registered, and the word dictionary registered in the dictionary registration unit. Selecting means for selecting a word group related to a predetermined range including the position of the own device detected by the means as a candidate of a result of speech recognition for the input speech, the selection among a plurality of words stored in the word dictionary Generating means for generating a plurality of speech prohibition examples using a plurality of words not selected by the means, utterance example output control means for causing the output device to output the speech prohibition examples generated by the generation means, and the selection means Stores speech recognition means for performing speech recognition of input speech input for information retrieval using the selected word group, and information on the plurality of words From information database, a program for functioning as an information retrieval means for retrieving information about the words obtained as a result of the speech recognition by the speech recognition means.

第5の発明及び第6の発明によれば、位置検出手段によって、自装置の位置を検出する。選択手段によって、辞書登録手段に登録された単語辞書から、位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する。   According to the fifth and sixth inventions, the position of the device itself is detected by the position detection means. The selection means selects, from the word dictionary registered in the dictionary registration means, a word group related to a predetermined range including the position of the own device detected by the position detection means as a candidate for the result of speech recognition for the input speech.

そして、生成手段によって、単語辞書に格納された複数の単語のうち、選択手段によって選択されなかった単語を用いて、複数の発話禁止例を生成する。発話例出力制御手段によって、生成手段によって生成された複数の発話禁止例を出力装置に出力させる。   And a production | generation means produces | generates a some utterance prohibition example using the word which was not selected by the selection means among the several words stored in the word dictionary. The utterance example output control means causes the output device to output a plurality of utterance prohibition examples generated by the generation means.

そして、音声認識手段によって、選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行い、情報検索手段によって、複数の単語に関する情報を格納した情報データベースから、音声認識手段による音声認識の結果として得られた単語に関する情報を検索する。   The speech recognition means performs speech recognition of the input speech input for information retrieval using the word group selected by the selection means, and stores information related to a plurality of words by the information retrieval means Then, information regarding words obtained as a result of speech recognition by the speech recognition means is retrieved.

このように、単語辞書から、自装置の位置を含む所定範囲に関連する単語群を音声認識の結果の候補として選択し、選択されなかった単語を用いた複数の発話禁止例を生成して、出力装置に出力させることにより、情報検索のための音声認識処理の認識率を向上させることができると共に、ユーザに対して、認識可能な発話内容と発話方法とを同時に教示することができる。   In this manner, from the word dictionary, a word group related to a predetermined range including the position of the own device is selected as a candidate for the result of speech recognition, and a plurality of utterance prohibition examples using unselected words are generated, By outputting to the output device, the recognition rate of the speech recognition process for information retrieval can be improved, and the user can be instructed simultaneously about the recognizable utterance contents and the utterance method.

上記の単語辞書に格納されている単語は、地域名を表わす単語、業種名を表わす単語、及び施設名を表わす単語を含むことができる。   The words stored in the word dictionary can include a word representing a region name, a word representing a business type name, and a word representing a facility name.

上記の単語辞書には、地域名を表わす単語及び施設名を表わす単語の各々に対応して、位置情報が格納されており、選択手段は、辞書登録手段に登録された単語辞書から、単語辞書に登録されている位置情報に基づいて、位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択することができる。   In the above word dictionary, position information is stored corresponding to each of the word representing the area name and the word representing the facility name, and the selecting means can select the word dictionary from the word dictionary registered in the dictionary registering means. Based on the position information registered in the above, a word group related to a predetermined range including the position of the own device detected by the position detecting means can be selected as a candidate for the result of speech recognition for the input speech.

上記の情報データベースには、地域名と業種名と施設名とが対応して格納されており、情報検索手段は、情報データベースから、音声認識手段による音声認識の結果として得られた単語が表わす地域名及び業種名に対応する施設名を検索することができる。   In the above information database, a region name, a business type name, and a facility name are stored in correspondence with each other, and the information retrieval means is a region represented by a word obtained as a result of speech recognition by the speech recognition means from the information database. The facility name corresponding to the name and the industry name can be searched.

上記の情報データベースには、単語が表わす施設名の位置情報と地図情報とが格納されており、情報検索手段は、情報データベースの位置情報から、音声認識手段による音声認識の結果として得られた単語が表わす施設名の位置情報を検索すると共に、情報データベースの地図情報に基づいて、自装置の位置から位置情報が示す位置までの経路を探索することができる。   In the information database, the location information of the facility name represented by the word and the map information are stored, and the information retrieval means obtains the word obtained as a result of speech recognition by the speech recognition means from the location information in the information database. The location information of the facility name represented by can be searched, and the route from the location of the own device to the location indicated by the location information can be searched based on the map information of the information database.

以上説明したように、本発明の音声認識装置及びプログラムによれば、情報検索のための音声認識処理の認識率を向上させることができると共に、ユーザに対して、認識可能な発話内容と発話方法とを同時に教示することができる、という効果が得られる。   As described above, according to the speech recognition apparatus and program of the present invention, it is possible to improve the recognition rate of speech recognition processing for information retrieval, and to recognize the utterance contents and the utterance method that can be recognized by the user. Can be taught at the same time.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、車両用ナビゲーションシステムに本発明を適用した場合について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case where the present invention is applied to a vehicle navigation system will be described.

図1に示すように、第1の実施の形態に係る車両用ナビゲーションシステム10は、マイクロホンで構成され、かつ、ユーザ発話を集音して音声信号を生成する入力部12と、音声認識開始を指示するためのPTT(Push To Talk)スイッチ14と、ユーザが操作するための操作部16と、GPS(Global Positioning System)からの信号を受信して現在の自車位置を検出するGPSセンサ18と、GPSセンサ18によって検出された自車位置に基づいて、発話例を生成すると共に、入力部12によって入力された音声信号に基づいて、施設名の検索や経路の探索を行うコンピュータ20と、スピーカで構成され、かつ、生成された発話例を音声出力する音声出力部22と、施設名の検索や経路の探索の結果を表示するディスプレイ24とを備えている。   As shown in FIG. 1, the vehicle navigation system 10 according to the first embodiment includes a microphone, an input unit 12 that collects a user's utterance and generates a voice signal, and starts voice recognition. A PTT (Push To Talk) switch 14 for instructing, an operation unit 16 for operation by a user, a GPS sensor 18 for receiving a signal from a GPS (Global Positioning System) and detecting a current vehicle position; A computer 20 that generates a speech example based on the vehicle position detected by the GPS sensor 18 and searches for a facility name or a route based on the audio signal input by the input unit 12, and a speaker And a voice output unit 22 that outputs the generated utterance example as a voice, and searches for facility names and routes. And a display 24 for displaying the results.

操作部16は、システムの機能を選択したり、目的地を検索したり、目的地を設定するとき等、所定の情報を入力するためにユーザが操作するものであり、例えば、ボタン、ジョイスティック等が該当する。なお、操作部16及びディスプレイ24の代わりに、いわゆるタッチパネルを設けてもよい。   The operation unit 16 is operated by a user to input predetermined information, such as when selecting a system function, searching for a destination, or setting a destination. For example, a button, a joystick, etc. Is applicable. A so-called touch panel may be provided instead of the operation unit 16 and the display 24.

コンピュータ20は、CPUと、RAMと、後述する情報検索処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。コンピュータ20は、複数の単語を格納した単語辞書が登録された音声認識データベース26と、入力部12から入力された信号から、入力音声を示す音声信号を切り出すと共に、音声認識データベース26に登録された単語辞書を参照して、音声信号に基づいて、ユーザ発話を認識する音声認識部28と、システム上の様々なデータが記憶されたシステムデータベース30と、地図データや施設データ等を記憶した地図データベース32と、単語辞書における音声認識結果の候補となる範囲の制限や、発話例の生成、施設名の検索、ルート探索、その他のシステム全体の制御を行う対話制御部34と、音声合成を行う音声合成部36と、ディスプレイ24の表示制御を行う表示制御部38と、を備えている。   The computer 20 includes a CPU, a RAM, and a ROM that stores a program for executing an information search processing routine described later, and is functionally configured as follows. The computer 20 cuts out a speech signal indicating the input speech from the speech recognition database 26 in which a word dictionary storing a plurality of words is registered and a signal input from the input unit 12, and is registered in the speech recognition database 26. A speech recognition unit 28 that recognizes a user's utterance based on a speech signal with reference to a word dictionary, a system database 30 that stores various data on the system, and a map database that stores map data, facility data, and the like 32, a dialogue control unit 34 that controls the range of candidate speech recognition results in the word dictionary, generates utterance examples, searches for facility names, searches for routes, and other system-wide controls, and performs voice synthesis. A combining unit 36 and a display control unit 38 that performs display control of the display 24 are provided.

音声認識データベース26には、入力音声の特徴量とマッチングするための音響モデルと、単語と音響モデルの並び方(音素表記列)との関係を表す単語辞書と、が記憶されている。   The speech recognition database 26 stores an acoustic model for matching with the feature amount of the input speech, and a word dictionary representing the relationship between words and how acoustic models are arranged (phoneme notation sequence).

図2は、音声認識データベース26に記憶されている単語辞書の構成を示す図である。単語辞書は、例えば、単語、音素表記列、位置情報、及び情報種別の各項目から構成されている。ここで、単語辞書に登録される単語は、目的地となりうるすべての単語や、情報検索の入力となりうる単語が該当し、例えば、地域名(都道府県名、市町村名、地名、通り名、交差点名など)、施設名(娯楽施設、レストラン、デパート、個人宅など)、業種名などが該当する。また、単語辞書に登録される単語として、接続語も該当する。   FIG. 2 is a diagram showing the configuration of the word dictionary stored in the speech recognition database 26. The word dictionary includes, for example, items of a word, a phoneme notation string, position information, and an information type. Here, the words registered in the word dictionary are all the words that can be the destination and the words that can be used for information search. For example, the region name (prefecture name, city name, place name, street name, intersection) Name), facility name (entertainment facility, restaurant, department store, private house, etc.), industry name, etc. Moreover, a connection word corresponds also as a word registered into a word dictionary.

単語辞書では、各々の単語には、その音素表記列、その単語によって表されたものが存在する位置情報(緯度及び経度)、及びその単語を表す情報種別が対応付けて格納されている。情報種別としては、例えば、地域名、施設名、業種名、接続語などが該当する。なお、業種名や接続語のように、表わされるものが存在する位置情報を特定できない単語については、「位置情報なし」を対応付けて格納しておけばよい。   In the word dictionary, each word stores a phoneme notation string, position information (latitude and longitude) where the word represented by the word exists, and an information type representing the word in association with each other. As the information type, for example, a region name, a facility name, a business type name, a connection word, and the like are applicable. It should be noted that for words that cannot identify position information where there is a representation, such as a business name or connection word, “no position information” may be stored in association with each other.

音声認識部28は、PTTスイッチ14がオンになると、入力部12に入力された音声について音声認識処理を実行する。具体的には、音声認識部28は、入力された音声について音声分析を行って特徴量を抽出する。次に、音声認識部28は、特徴量と音響モデルとのマッチングを行い、さらに、音声認識データベース26に記憶されている単語辞書のうち、後述するように、音声認識結果の候補として選択された単語群を参照して、音素表記列に対応する単語を認識する。音声認識部28は、このようにして得られた認識結果を対話制御部34に供給する。   When the PTT switch 14 is turned on, the voice recognition unit 28 performs a voice recognition process on the voice input to the input unit 12. Specifically, the voice recognition unit 28 performs voice analysis on the input voice and extracts a feature amount. Next, the speech recognition unit 28 performs matching between the feature quantity and the acoustic model, and is further selected from the word dictionary stored in the speech recognition database 26 as a speech recognition result candidate, as will be described later. The word corresponding to the phoneme notation string is recognized with reference to the word group. The voice recognition unit 28 supplies the recognition result thus obtained to the dialogue control unit 34.

対話制御部34は、ユーザとシステムとの対話を円滑に制御するための対話インタフェース部34aを有している。また、対話制御部34は、以下に説明するように、音声入力を用いた施設検索又は目的地設定のための発話例教示処理を行う。   The dialogue control unit 34 has a dialogue interface unit 34a for smoothly controlling the dialogue between the user and the system. In addition, as described below, the dialogue control unit 34 performs utterance example teaching processing for facility search or destination setting using voice input.

まず、GPSセンサ18から自車位置を取得する。   First, the vehicle position is acquired from the GPS sensor 18.

そして、地域に基づく音声認識結果の候補制限を行うために、音声認識データベース26の単語辞書のうち、音声認識結果の候補となる単語群を選択する。音声認識結果の候補となる単語群の選択は、以下のように行われる。   Then, in order to perform candidate restriction on the speech recognition result based on the region, a word group as a speech recognition result candidate is selected from the word dictionary in the speech recognition database 26. Selection of a word group as a speech recognition result candidate is performed as follows.

まず、取得した自車位置に基づき、音声認識対象とする地域範囲を決定する。地域範囲による制限を行う理由は、地域を制限することによって、音声認識結果の候補となる単語数(市区町村名、該当地域の施設名)を限定および削減できるため、音声認識処理の認識率を、地域制限しない場合より向上させることができるからである。   First, based on the acquired vehicle position, an area range to be subjected to speech recognition is determined. The reason for restricting by area range is that by limiting the area, the number of words that are candidates for speech recognition results (city names, facility names in the area) can be limited and reduced. This is because it can be improved as compared with the case where the area is not restricted.

地域範囲の決定方法としては、自車位置を中心に半径R[km](R:任意)内の地域を、音声認識対象の地域範囲とする方法を用いてもよいし、予め地域を細分して(例えば、都道府県単位や市町村単位で細分して)ブロック化し、自車位置が存在するブロックを、音声認識対象の地域範囲とする方法を用いてもよい。例えば、自車位置を中心に半径30[km]の範囲を、音声認識対象の地域範囲とする。なお、以下の具体例では、自車位置が、JR名古屋駅周辺であり、自車位置を中心に半径30kmの範囲を、音声認識対象の地域範囲とする場合を例に説明する。   As a method for determining the area range, a method in which an area within a radius R [km] (R: arbitrary) around the position of the host vehicle is used as the area range for speech recognition may be used. For example, a method may be used in which blocks are divided into units of prefectures or municipalities, and blocks where the own vehicle position exists are used as a speech recognition target area range. For example, a range having a radius of 30 [km] centering on the vehicle position is set as a regional range for speech recognition. In the following specific example, a case where the own vehicle position is around JR Nagoya Station and a range having a radius of 30 km centering on the own vehicle position is set as a speech recognition target area range will be described as an example.

そして、単語辞書に各単語と対応して登録されている位置情報に基づいて、音声認識データベース26の単語辞書の単語から、決定された地域範囲外の位置情報に対応する単語を除外し、残りの単語を、決定された地域範囲に関連する単語であるとし、音声認識結果の候補となる単語群として選択する。   Then, based on the position information registered corresponding to each word in the word dictionary, the words corresponding to the position information outside the determined area range are excluded from the words in the word dictionary of the speech recognition database 26, and the rest Are selected as a group of words that are candidates for a speech recognition result.

なお、「位置情報なし」が対応付けられている、業種名や接続語を表わす単語については、決定された地域範囲外の位置情報に対応する単語ではないため、音声認識結果の候補となる単語群として選択される。   Note that a word representing an industry name or a connection word associated with “no position information” is not a word corresponding to position information outside the determined region range, and is therefore a word that is a candidate for a speech recognition result. Selected as a group.

次に、以下に説明するように、施設検索又は目的地設定のための発話例を生成する。   Next, as described below, an utterance example for facility search or destination setting is generated.

まず、操作部16の操作によって、施設検索機能が選択されている場合について説明する。本実施の形態では、「地域名(駅名含む)」と「業種名」とを音声入力し、施設検索を行う場合を例に説明する。   First, the case where the facility search function is selected by the operation of the operation unit 16 will be described. In the present embodiment, a case where a facility search is performed by inputting “region name (including station name)” and “industry name” by voice will be described as an example.

ここで、音声入力は、“「地域名」+「接続語」+「業種名」”(例えば、「名古屋市のデパート」)の形式で行われるものとする。   Here, it is assumed that the voice input is performed in the form of ““ region name ”+“ connecting word ”+“ business name ”” (for example, “department in Nagoya City”).

まず、上記で選択された音声認識結果の候補となる単語群から、認識対象となる地域範囲(今回は30[km])の境界近くにある市区町村名または駅名を、東西南北の各々について抽出する。例えば、図3に示すように、「関市」、「豊田市」、「半田駅」、及び「いなべ市」が抽出される。   First, from the word groups that are candidates for the speech recognition result selected above, the city name or station name that is near the boundary of the region range to be recognized (this time 30 km), for each of the east, west, north, and south Extract. For example, as shown in FIG. 3, “Seki City”, “Toyota City”, “Handa Station”, and “Inabe City” are extracted.

また、選択された音声認識結果の候補となる単語群から、「業種名」を表わす単語を複数抽出する。例えば、「業種名」として、「ラーメン店」、「動物園」、「デパート」が抽出される。なお、発話例の生成で用いられる「業種名」を表わす単語を予め設定しておいてもよい。   In addition, a plurality of words representing “business name” are extracted from the selected word recognition candidate group. For example, “ramen store”, “zoo”, and “department store” are extracted as “industry name”. Note that a word representing “business name” used in generating an utterance example may be set in advance.

また、発話例の生成で用いるために予め設定された接続語を取得する。例えば、図3に示すように、「接続語」を表わす単語として、一般的に使用される「の」や「にある」などが取得される。   Also, a connection word set in advance for use in generating an utterance example is acquired. For example, as shown in FIG. 3, “no”, “in”, and the like that are generally used are acquired as words representing “connection words”.

そして、「地域名」、「接続語」、「業種名」の組み合わせで、発話例を複数種類生成する。例えば、図4に示すように、「地域名」、「接続語」、「業種名」の各要素ができるだけ連続して出現しない順番で、発話例(例えば、「関市のラーメン店」、「豊田市の動物園」)を複数種類生成する。   Then, a plurality of types of utterance examples are generated by a combination of “region name”, “connection word”, and “business name”. For example, as shown in FIG. 4, utterance examples (for example, “Seki-shi ramen shop”, “ Toyota City Zoo))).

次に、操作部16の操作によって、目的地設定が選択されている場合について説明する。本実施の形態では、「地域名(駅名含む)」と「施設名」とを音声入力し、目的地設定を行う場合を例に説明する。   Next, a case where the destination setting is selected by operating the operation unit 16 will be described. In the present embodiment, a case will be described as an example in which “area name (including station name)” and “facility name” are input by voice and destination setting is performed.

ここで、音声入力は、“「地域名」+「接続語」+「施設名」”(例えば、「中区の三越」)の形式で行われるものとする。   Here, it is assumed that the voice input is performed in the format of ““ area name ”+“ connecting word ”+“ facility name ”(for example,“ Naka-ku Mitsukoshi ”).

まず、上記の施設検索の場合と同様に、選択された音声認識結果の候補となる単語群から、制限された地域範囲(今回は30[km])の境界近くにある市区町村名または駅名を、東西南北の各々について抽出する。例えば、図5に示すように、「関市」、「豊田市」、「半田駅」、及び「いなべ市」が抽出される。   First, as in the case of the facility search described above, the city name or station name near the boundary of the restricted area range (30 km in this case) from the word group that is the candidate for the selected speech recognition result. Are extracted for each of east, west, south, and north. For example, as shown in FIG. 5, “Seki City”, “Toyota City”, “Handa Station”, and “Inabe City” are extracted.

また、選択された音声認識結果の候補となる単語群から、「施設名」を表わす単語を複数抽出する。例えば、図5に示すように、「施設名」として、「三越」、「餃子の王将」、及び「ジャスコ」が抽出される。   In addition, a plurality of words representing “facility names” are extracted from the selected word recognition candidate group. For example, as shown in FIG. 5, “Mitsukoshi”, “Kyoza no Osho”, and “Jusco” are extracted as “facility names”.

また、発話例の生成で用いられるように予め設定された接続語を取得する。例えば、図5に示すように、「接続語」を表わす単語として、「の」や「周辺の」などが取得される。   In addition, a connection word set in advance so as to be used in generation of an utterance example is acquired. For example, as shown in FIG. 5, “no”, “periphery”, and the like are acquired as words representing “connection words”.

そして、「地域名」、「接続語」、「施設名」の組み合わせで、発話例を複数種類生成する。例えば、図6に示すように、「地域名」、「接続語」、「施設名」の各要素ができるだけ連続して出現しない順番で、発話例(例えば、「半田駅周辺の餃子の王将」、「豊田市のジャスコ」)を複数種類生成する。   Then, a plurality of types of utterance examples are generated by a combination of “area name”, “connection word”, and “facility name”. For example, as shown in FIG. 6, utterance examples (for example, “a dumpling king general around Handa Station” in an order in which each element of “region name”, “connecting word”, and “facility name” does not appear as continuously as possible. , “Toyota City Jusco”).

次に、生成された複数種類の発話例を音声合成部36及び音声出力部22を介して音声出力して、ユーザに教示する。出力タイミングは、音声入力用の発話開始ボタンが押された後のガイダンス時とし、自車位置が変化しない限り、図4又は図6に示すような複数の発話例を、上から順番に選択して音声出力する。   Next, a plurality of types of generated utterance examples are output as speech via the speech synthesizer 36 and the speech output unit 22 to teach the user. The output timing is at the time of guidance after the utterance start button for voice input is pressed. As long as the vehicle position does not change, a plurality of utterance examples as shown in FIG. Audio output.

例えば、ガイダンスとして、「地域名と業種名を入力して施設検索できます。」と音声出力した後に、発話例として、「関市のラーメン店、のように発話して入力してください。」と音声出力する。続いて、発話例として、「豊田市の動物園、のように発話して入力してください。」と音声出力して、順番に複数種類の発話例を音声出力する。   For example, as a guidance, “You can search for facilities by entering the area name and industry name.” After voice output, as an utterance example, “Speak and enter like a ramen shop in Seki City.” Is output. Subsequently, as an utterance example, “Speak and input like a zoo in Toyota City” is output as a voice, and a plurality of types of utterance examples are sequentially output as a voice.

そして、全ての発言例を音声出力した場合には、最初の発話例にもどり、発話例を音声出力する。   When all the utterance examples are output by voice, the first utterance example is returned and the utterance example is output by voice.

なお、上記のガイダンスについては、システムデータベース30に記憶されているガイダンス文に基づいて、音声出力すればよく、各種機能に応じて、ガイダンス文を予め設定しておけばよい。   In addition, about said guidance, what is necessary is just to output audio | voice based on the guidance sentence memorize | stored in the system database 30, and what is necessary is just to preset a guidance sentence according to various functions.

以上説明したように、対話制御部34は、音声入力を用いた施設検索又は目的地設定のための発話例教示処理を行う。   As described above, the dialogue control unit 34 performs an utterance example teaching process for facility search or destination setting using voice input.

システムデータベース30には、施設名と業種名と位置情報(経度と緯度)とが対応して多数登録された施設情報テーブルが記憶されている。施設検索機能が選択され、音声入力されると、対話制御部34は、音声認識の結果として得られた地域名と業種名とに基づいて、施設情報テーブルから、得られた地域名及び業種名に対応する施設名を検索して、検索結果を、表示制御部38を介してディスプレイ24に表示させる。   The system database 30 stores a facility information table in which a large number of facility names, industry names, and position information (longitude and latitude) are registered. When the facility search function is selected and voice input is performed, the dialogue control unit 34 obtains the region name and the industry name obtained from the facility information table based on the region name and the industry name obtained as a result of the speech recognition. And the search result is displayed on the display 24 via the display control unit 38.

また、対話制御部34は、GPSセンサ18で検出された現在の自車位置(緯度及び経度)と、地図データベース32に記憶された地図データとに基づいて、表示制御部38を介して、現在の自車位置周辺の地図をディスプレイ24に表示させる。   In addition, the dialogue control unit 34 presents the current vehicle position (latitude and longitude) detected by the GPS sensor 18 and the map data stored in the map database 32 via the display control unit 38. A map around the vehicle position is displayed on the display 24.

また、目的地設定機能が選択されているときに、ユーザから音声入力されると、対話制御部34は、音声認識の結果として得られた地域名と施設名とに基づいて、地図データベース32に記憶された施設データから、目的地として、地域名及び施設名が表わす施設の位置情報を検索し、地図データベース32に記憶された地図データに基づいて、現在の自車位置から目的地までのルートを探索して、表示制御部38を介してディスプレイ24に表示させる。   When the destination setting function is selected and the user inputs a voice, the dialogue control unit 34 stores the map database 32 based on the area name and the facility name obtained as a result of the voice recognition. The location information of the facility indicated by the area name and the facility name is searched as the destination from the stored facility data, and the route from the current own vehicle position to the destination based on the map data stored in the map database 32 And is displayed on the display 24 via the display control unit 38.

次に、第1の実施の形態に係る車両用ナビゲーションシステム10の作用について説明する。   Next, the operation of the vehicle navigation system 10 according to the first embodiment will be described.

ユーザが、操作部16を操作して、施設検索機能を選択すると共に、PTTスイッチ14を押下すると、コンピュータ20において、図7に示すような、情報検索処理ルーチンが実行される。   When the user operates the operation unit 16 to select the facility search function and presses the PTT switch 14, an information search processing routine as shown in FIG. 7 is executed in the computer 20.

まず、ステップ100において、GPSセンサ18より検出された自車位置(経度及び緯度)を取得し、ステップ102において、上記ステップ100で得られた自車位置を中心とし半径を所定距離とした地域範囲を、音声認識対象とする地域範囲として決定する。   First, in step 100, the own vehicle position (longitude and latitude) detected by the GPS sensor 18 is acquired, and in step 102, the area range centered on the own vehicle position obtained in step 100 and having a radius as a predetermined distance. Is determined as a regional range to be a speech recognition target.

そして、ステップ104において、単語辞書に登録されている単語から、上記ステップ102で決定された地域範囲外の位置情報に対応する単語を除外して、残りの単語群を、音声認識結果の候補となる単語群として選択する。   In step 104, the words corresponding to the position information outside the area range determined in step 102 are excluded from the words registered in the word dictionary, and the remaining words are set as candidates for speech recognition results. As a group of words.

次のステップ106では、施設検索機能に対応して予め設定されているガイダンス文(例えば、「地域名と業種名を入力して施設検索できます。」)を取得する。そして、ステップ108において、上記ステップ104で選択された音声認識結果の候補となる単語群の単語を用いて、施設検索機能において音声入力となる発話例文を複数種類生成し、生成された複数種類の発話例文を順番に並べて記憶しておく。   In the next step 106, a guidance sentence set in advance corresponding to the facility search function (for example, “the facility search can be performed by inputting the area name and the industry name”) is acquired. In step 108, a plurality of types of utterance example sentences to be used for speech input in the facility search function are generated using the words of the word group that is a candidate for the speech recognition result selected in step 104. The utterance example sentences are stored in order.

ステップ110では、上記ステップ106で取得したガイダンス文を音声合成し、音声出力部22に出力して、ガイダンスを音声出力させる。そして、ステップ112において、発話例文を識別するための変数tを初期値の1に設定し、ステップ114において、t番目の発話例文を音声合成し、音声出力部22に出力して、発話例を音声出力させる。   In step 110, the guidance sentence acquired in step 106 is synthesized by speech and output to the speech output unit 22 to output the guidance by speech. In step 112, a variable t for identifying an utterance example sentence is set to an initial value of 1. In step 114, the t-th utterance example sentence is synthesized by speech and output to the voice output unit 22, and an utterance example is obtained. Output audio.

そして、ステップ116において、音声が入力されたか否かを判定する。上記ステップ116では、入力部12から入力された信号から、入力音声を示す音声信号が切り出されたか否かを判断し、入力音声を示す音声信号が切り出されなかった場合には、ステップ118へ移行して、変数tをインクリメントし、ステップ114へ戻り、次の発話例を音声出力させる。   In step 116, it is determined whether or not a voice is input. In step 116, it is determined whether or not a voice signal indicating the input voice is cut out from the signal input from the input unit 12. If the voice signal indicating the input voice is not cut out, the process proceeds to step 118. Then, the variable t is incremented, and the process returns to step 114 to output a voice of the next utterance example.

一方、上記ステップ116で、入力部12によってユーザによる発話に応じた音声信号が生成され、入力音声を示す音声信号が切り出された場合には、ステップ120において、上記ステップ104で選択された、単語辞書に登録されている単語のうちの音声認識結果の候補となる単語群を参照して、入力された音声信号に基づいて、ユーザ発話(例えば、「関市のラーメン店」)が表わす地域名、接続語、及び業種名を認識する。   On the other hand, when a voice signal corresponding to the user's utterance is generated by the input unit 12 in step 116 and a voice signal indicating the input voice is cut out, the word selected in step 104 in step 120 is selected. The name of a region represented by a user utterance (for example, “Seki-shi Ramen store”) based on the input speech signal with reference to a group of words that are candidates for speech recognition results among the words registered in the dictionary Recognize connection words and industry names.

そして、ステップ122において、上記ステップ120で認識されたユーザ発話が表わす地域名及び業種名に基づいて、システムデータベース30の施設情報テーブルに対して施設検索を行い、ステップ124において、上記ステップ122で検索された施設情報をディスプレイ24に表示させて、情報検索処理ルーチンを終了する。   In step 122, a facility search is performed on the facility information table in the system database 30 based on the area name and the business type name represented by the user utterance recognized in step 120. In step 124, the search is performed in step 122. The facility information thus displayed is displayed on the display 24, and the information search processing routine is terminated.

そして、コンピュータ20は、ユーザによる操作部16の操作又は音声入力により、ディスプレイ24に表示した施設情報の中から、所望の施設名が選択されると、その施設が存在する位置を、目的地として設定する。また、コンピュータ20は、現在の自車位置から目的地までのルートを探索して、ディスプレイ24に表示させる。   Then, when the desired facility name is selected from the facility information displayed on the display 24 by the operation of the operation unit 16 or voice input by the user, the computer 20 sets the position where the facility exists as the destination. Set. Further, the computer 20 searches the display 24 for a route from the current vehicle position to the destination.

上記の情報検索処理ルーチンでは、施設検索機能が指示された場合を例に説明したが、目的地設定機能が選択された場合には、各ステップの処理を、以下のように置き換えて、情報検索処理ルーチンが実行される。   In the above information search processing routine, the case where the facility search function is instructed has been described as an example. However, when the destination setting function is selected, the processing in each step is replaced as follows to search for information. A processing routine is executed.

上記ステップ106で、目的地設定機能に対応して予め設定されているガイダンス文(例えば、「地域名と施設名を入力して目的地設定できます。」)を取得する。また、上記ステップ108において、上記ステップ104で選択された音声認識結果の候補となる単語群の単語を用いて、目的地設定機能における音声入力となる発話例文を複数種類生成する。   In step 106, a guidance sentence (for example, “the destination can be set by inputting the area name and the facility name”) corresponding to the destination setting function is acquired. In step 108, a plurality of types of utterance example sentences to be used for speech input in the destination setting function are generated using the words of the word group that is the candidate for the speech recognition result selected in step 104.

また、上記ステップ120において、入力された音声信号に基づいて、ユーザ発話(例えば、「豊田市のジャスコ」)が表わす地域名、接続語、及び施設名を認識する。上記ステップ122では、上記ステップ120で認識されたユーザ発話が表わす地域名及び施設名に基づいて、地図データベース32に記憶された施設データから、該当する施設を検索して、目的地として設定する。また、地図データベース32に記憶された地図データから、現在の自車位置から目的地までのルートを探索する。上記ステップ124では、探索されたルートを、ディスプレイ24に表示させる。   In step 120, based on the input audio signal, the area name, connection word, and facility name represented by the user utterance (for example, “Toyota City Jusco”) are recognized. In step 122, based on the area name and facility name represented by the user utterance recognized in step 120, the corresponding facility is searched from the facility data stored in the map database 32 and set as the destination. Further, a route from the current vehicle position to the destination is searched from the map data stored in the map database 32. In step 124, the searched route is displayed on the display 24.

以上説明したように、第1の実施の形態に係る車両用ナビゲーションシステムによれば、単語辞書から、自車位置を中心とした地域範囲に関連する単語群を、音声認識の結果の候補として選択することにより、施設検索や目的地設定のために入力される音声に対する音声認識処理の認識率を向上させることができる。また、選択された単語群を用いた複数種類の発話例を生成して、音声出力させることにより、ユーザに対して、認識可能な発話内容と発話方法とを同時に教示することができる。   As described above, according to the vehicle navigation system of the first embodiment, a word group related to a regional range centered on the vehicle position is selected as a candidate for the result of speech recognition from the word dictionary. By doing this, it is possible to improve the recognition rate of the speech recognition processing for the speech input for facility search and destination setting. In addition, by generating a plurality of types of utterance examples using the selected word group and outputting the voice, it is possible to simultaneously teach the user about the recognizable utterance contents and the utterance method.

また、音声認識の結果の候補として選択された単語群を用いた複数種類の発話例を音声出力することにより、間接的に、認識可能な単語の範囲を教示することができる。   In addition, by outputting a plurality of types of utterance examples using a word group selected as a speech recognition result candidate, a recognizable word range can be indirectly taught.

また、自車位置に応じて、音声認識処理で参照する単語辞書の単語制限を行う音声認識システムにおいて、受付可能な発話内容と発話方法の両方が理解できるような発話例を、自車位置に応じて動的に複数種類生成し、ユーザにそれらを提示することによって、ユーザはシステムに対し「どのように」かつ「何を」入力したら良いかがわかるため、音声入力を有効に実施することが可能になり、製品に対する利便性および満足度が向上する。   Also, in the speech recognition system that restricts words in the word dictionary that is referred to in the speech recognition process according to the vehicle position, an utterance example that can understand both acceptable utterance content and utterance method is Create multiple types dynamically and present them to the user so that the user knows how to input “what” and “what” to the system, so voice input should be performed effectively This will improve the convenience and satisfaction of the product.

次に、第2の実施の形態について説明する。なお、第2の実施の形態に係る車両用ナビゲーションシステムの構成は、第1の実施の形態と同様の構成となっているため、同一符号を付して説明を省略する。   Next, a second embodiment will be described. In addition, since the structure of the navigation system for vehicles which concerns on 2nd Embodiment is the structure similar to 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.

第2の実施の形態では、発話例文を生成すると共に、発話禁止例文を生成して、音声出力している点が、第1の実施の形態と主に異なっている。   The second embodiment is mainly different from the first embodiment in that an utterance example sentence is generated and an utterance prohibition example sentence is generated and output as a voice.

第2の実施の形態では、対話制御部34によって、以下に説明するように、音声入力を用いた施設検索又は目的地設定のための発話例教示処理を行う。   In the second embodiment, the dialogue control unit 34 performs an utterance example teaching process for facility search or destination setting using voice input, as will be described below.

まず、第1の実施の形態と同様に、GPSセンサ18から自車位置を取得し、音声認識データベース26の単語辞書から、音声認識結果の候補となる単語群を選択する。   First, as in the first embodiment, the vehicle position is acquired from the GPS sensor 18, and a word group that is a candidate for the speech recognition result is selected from the word dictionary of the speech recognition database 26.

そして、第1の実施の形態と同様に、施設検索又は目的地設定のための発話例を複数種類生成すると共に、以下に説明するように、発話禁止例を複数種類生成する。   Then, as in the first embodiment, a plurality of types of utterance examples for facility search or destination setting are generated, and a plurality of types of utterance prohibited examples are generated as described below.

まず、操作部16の操作によって、施設検索機能が選択されている場合について説明する。   First, the case where the facility search function is selected by the operation of the operation unit 16 will be described.

選択された音声認識結果の候補となる単語群以外の単語から、制限された地域範囲外にある「地域名」(例えば、市区町村名または駅名)を複数抽出する。   A plurality of “region names” (for example, city names or station names) outside the restricted region range are extracted from words other than the word group that is a candidate for the selected speech recognition result.

また、選択された音声認識結果の候補となる単語群から、「業種名」を表わす単語を複数抽出し、発話例の生成で用いるために予め設定された接続語を取得する。そして、「地域名」、「接続語」、「施設名」の組み合わせで、発話禁止例(例えば、「浜松市のラーメン店」)を複数種類生成する。   Further, a plurality of words representing “business name” are extracted from the selected word recognition candidate group, and a connection word set in advance for use in generating an utterance example is acquired. Then, a plurality of types of speech prohibition examples (for example, “Hamamatsu City ramen shop”) are generated by a combination of “area name”, “connecting word”, and “facility name”.

また、操作部16の操作によって、目的地設定機能が選択されている場合には、上記の施設検索機能が選択されている場合と同様に、選択された音声認識結果の候補となる単語群以外の単語から、制限された地域範囲外にある「地域名」を、東西南北の各々について抽出する。また、選択された音声認識結果の候補となる単語群から、「施設名」を表わす単語を複数抽出し、発話例の生成で用いるために予め設定された接続語を取得する。そして、「地域名」、「接続語」、「施設名」の組み合わせで、発話禁止例(例えば、「浜松市のジャスコ」)を複数種類生成する。   In addition, when the destination setting function is selected by the operation of the operation unit 16, other than the word group that is a candidate for the selected speech recognition result, as in the case where the facility search function is selected. The “region name” that is outside the restricted region range is extracted from each word of east, west, north, and south. Further, a plurality of words representing “facility names” are extracted from the selected word recognition candidate group, and a connection word set in advance for use in generating an utterance example is acquired. A plurality of types of speech prohibition examples (for example, “Hamamatsu City Jusco”) are generated by a combination of “region name”, “connecting word”, and “facility name”.

次に、生成された複数種類の発話例及び複数種類の発話禁止例を、音声合成部36及び音声出力部22を介して音声出力して、ユーザに教示する。   Next, the generated plurality of types of utterance examples and the plurality of types of utterance prohibitions are output via the voice synthesizer 36 and the voice output unit 22 to be taught to the user.

例えば、ガイダンスとして、「地域名と業種名を入力して施設検索できます。」と音声出力した後に、発話例「関市のラーメン店、のように発話して入力してください。」と音声出力する。続いて、発話禁止例「浜松市の動物園は、地域範囲が認識対象外のため入力することができません。」を音声出力し、その後も、交互に発話例と発話禁止例とを音声出力する。   For example, as a guidance, after outputting a voice saying “Enter a region name and industry name to search for facilities.”, Utterance example “Please speak and enter like a ramen shop in Seki city.” Output. Subsequently, an utterance prohibition example “The zoo in Hamamatsu City cannot be input because the area range is outside the recognition target.”, And thereafter, the utterance example and the utterance prohibition example are alternately output by voice.

なお、第2の実施の形態に係る車両用ナビゲーションシステムの他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of the vehicle navigation system which concern on 2nd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

このように、単語辞書から、自車位置を中心とした地域範囲に関連する単語群を、音声認識の結果の候補として選択することにより、施設検索や目的地設定のために入力される音声に対する音声認識処理の認識率を向上させることができる。また、選択された単語群を用いた発話例を生成すると共に、選択されなかった単語を用いた発話禁止例を生成して、音声出力させることにより、ユーザに対して、認識可能な発話内容と発話方法とを同時に教示することができる。   In this way, by selecting a word group related to the area range centered on the vehicle position from the word dictionary as a candidate for the result of speech recognition, the speech input for facility search and destination setting is selected. The recognition rate of voice recognition processing can be improved. In addition, the utterance example using the selected word group is generated, and the utterance prohibition example using the unselected word is generated and output by voice so that the user can recognize the utterance content that can be recognized. The utterance method can be taught at the same time.

音声認識の結果の候補として選択された単語群を用いた発話例と、選択されなかった単語を用いた発話禁止例とを音声出力することにより、間接的に、認識可能な単語の範囲を教示することができる。   Instructs the range of recognizable words indirectly by outputting a speech example using a word group selected as a candidate for speech recognition results and a speech prohibition example using a word not selected can do.

次に、第3の実施の形態について説明する。なお、第3の実施の形態に係る車両用ナビゲーションシステムの構成は、第1の実施の形態と同様の構成となっているため、同一符号を付して説明を省略する。   Next, a third embodiment will be described. In addition, since the structure of the vehicle navigation system which concerns on 3rd Embodiment is the structure similar to 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.

第3の実施の形態では、複数種類の発話禁止例を生成して、音声出力している点が、第1の実施の形態と主に異なっている。   The third embodiment is mainly different from the first embodiment in that a plurality of types of speech prohibition examples are generated and output as speech.

第3の実施の形態では、対話制御部34によって、以下に説明するように、音声入力を用いた施設検索又は目的地設定のための発話例教示処理を行う。   In the third embodiment, the dialogue control unit 34 performs an utterance example teaching process for facility search or destination setting using voice input, as will be described below.

まず、第1の実施の形態と同様に、GPSセンサ18から自車位置を取得し、音声認識データベース26の単語辞書から、音声認識結果の候補となる単語群を選択する。   First, as in the first embodiment, the vehicle position is acquired from the GPS sensor 18, and a word group that is a candidate for the speech recognition result is selected from the word dictionary of the speech recognition database 26.

そして、以下に説明するように、発話禁止例を複数種類生成する。   Then, as described below, a plurality of types of speech prohibition examples are generated.

まず、操作部16の操作によって、施設検索機能が選択されている場合について説明する。   First, the case where the facility search function is selected by the operation of the operation unit 16 will be described.

選択された音声認識結果の候補となる単語群以外の単語から、制限された地域範囲外にある「地域名」(例えば、市区町村名または駅名)を、東西南北の各々について抽出する。   “Region names” (for example, city names or station names) outside the restricted area range are extracted for each of the east, west, north, and south from words other than the word group that is the candidate for the selected speech recognition result.

また、選択された音声認識結果の候補となる単語群から、「業種名」を表わす単語を複数抽出し、発話例の生成で用いるために予め設定された接続語を取得する。そして、「地域名」、「接続語」、「施設名」の組み合わせで、発話禁止例(例えば、「浜松市のラーメン店」)を複数生成する。   Further, a plurality of words representing “business name” are extracted from the selected word recognition candidate group, and a connection word set in advance for use in generating an utterance example is acquired. Then, a plurality of utterance prohibition examples (for example, “Hamamatsu ramen shop”) are generated by a combination of “area name”, “connecting word”, and “facility name”.

また、操作部16の操作によって、目的地設定機能が選択されている場合には、上記の施設検索機能が選択されている場合と同様に、選択された音声認識結果の候補となる単語群以外の単語から、制限された地域範囲外にある「地域名」を、東西南北の各々について抽出する。また、選択された音声認識結果の候補となる単語群から、「施設名」を表わす単語を複数抽出し、発話禁止例の生成で用いるために予め設定された接続語を、取得する。そして、「地域名」、「接続語」、「施設名」の組み合わせで、発話禁止例(例えば、「浜松市のジャスコ」)を複数種類生成する。   In addition, when the destination setting function is selected by the operation of the operation unit 16, other than the word group that is a candidate for the selected speech recognition result, as in the case where the facility search function is selected. The “region name” that is outside the restricted region range is extracted from each word of east, west, north, and south. Further, a plurality of words representing “facility names” are extracted from the selected word recognition result candidate group, and a connection word set in advance for use in generation of an utterance prohibition example is acquired. A plurality of types of speech prohibition examples (for example, “Hamamatsu City Jusco”) are generated by a combination of “region name”, “connecting word”, and “facility name”.

次に、生成された複数種類の発話禁止例を、音声合成部36及び音声出力部22を介して音声出力して、ユーザに教示する。   Next, a plurality of types of utterance prohibition examples that have been generated are output to the user via the voice synthesizer 36 and the voice output unit 22 to teach the user.

例えば、ガイダンスとして、「地域名と業種名を入力して施設検索できます。」と音声出力した後に、発話禁止例「浜松市の動物園は、地域範囲が認識対象外のため入力することができません。」と音声出力する。続いて、発話禁止例「津市のラーメン店は、地域範囲が認識対象外のため入力することができません。」と順番に発話禁止例を音声出力する。   For example, as a guidance, after voice output saying “You can search for facilities by entering the region name and industry name”, the utterance prohibition example “The zoo in Hamamatsu City cannot be entered because the region range is not recognized. . " Subsequently, the utterance prohibited example is output in the order of voice prohibition example, “The Ramen shop in Tsu City cannot be input because the area range is not recognized.”

なお、第3の実施の形態に係る車両用ナビゲーションシステムの他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of the vehicle navigation system which concern on 3rd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

このように、選択されなかった単語を用いた複数種類の発話禁止例を生成して、音声出力させることにより、ユーザに対して、認識可能な発話内容と発話方法とを同時に教示することができる。また、選択されなかった単語を用いた複数種類の発話禁止例を音声出力することにより、間接的に、認識可能な単語の範囲を教示することができる。   As described above, by generating a plurality of types of utterance prohibition examples using unselected words and outputting them by voice, it is possible to teach the user the recognizable utterance contents and the utterance method at the same time. . In addition, by outputting a plurality of types of speech prohibition examples using unselected words, it is possible to indirectly teach a range of recognizable words.

次に、第4の実施の形態について説明する。なお、第1の実施の形態と同様の構成になっている部分については、同一符号を付して説明を省略する。   Next, a fourth embodiment will be described. In addition, about the part which has the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第4の実施の形態では、発話例をディスプレイに表示することにより、ユーザに教示している点が第1の実施の形態と主に異なっている。   The fourth embodiment is mainly different from the first embodiment in that a user is taught by displaying an utterance example on a display.

第4の実施の形態では、対話制御部34によって、音声入力を用いた施設検索又は目的地設定のための発話例教示処理において、生成された複数種類の発話例を、表示制御部38及びディスプレイ24を介して表示して、ユーザに教示する。出力タイミングは、音声入力用の発話開始ボタンが押された後のガイダンス時とし、自車位置が変化しない限り、上記図4又は図6の発話候補の上から順に複数選択して同時に表示する。   In the fourth embodiment, a plurality of types of utterance examples generated by the dialog control unit 34 in the utterance example teaching process for facility search or destination setting using voice input are displayed on the display control unit 38 and the display. 24 and instruct the user. The output timing is at the time of guidance after the utterance start button for voice input is pressed, and a plurality of the utterance candidates in FIG. 4 or FIG. 6 are selected and displayed at the same time unless the vehicle position changes.

例えば、ガイダンスとして、「地域名と業種名を入力して施設検索できます。」と音声出力した後に、図8に示すように、複数種類の発話例「関市のラーメン店」、「豊田市の動物園」、「半田駅のデパート」を、同時に表示し、その後に、続いて、順番に、複数種類の発話例を同時に表示する。   For example, as a guidance, after outputting a voice saying “You can search for facilities by entering the area name and industry name.”, As shown in FIG. 8, multiple types of utterance examples such as “Ramen shop in Seki city”, “Toyota city” "Zoo no Zoo" and "Department of Handa Station" are displayed at the same time, and subsequently, a plurality of types of utterance examples are simultaneously displayed in order.

そして、全ての発言例を提示した場合は、最初の発話例にもどり、発話例を複数種類表示する。   And when all the utterance examples are shown, it returns to the first utterance example and displays plural kinds of utterance examples.

次に、第4の実施の形態における情報検索処理ルーチンについて図9を用いて説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。また、ユーザが、操作部16を操作して、施設検索機能を選択した場合を例に説明する。   Next, an information search processing routine according to the fourth embodiment will be described with reference to FIG. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted. Further, a case where the user operates the operation unit 16 and selects the facility search function will be described as an example.

まず、ステップ100において、GPSセンサ18より検出された自車位置(経度及び緯度)を取得し、ステップ102において、上記ステップ100で得られた自車位置を中心とし半径を所定距離とした地域範囲を、音声認識対象とする地域範囲として決定する。   First, in step 100, the own vehicle position (longitude and latitude) detected by the GPS sensor 18 is acquired, and in step 102, the area range centered on the own vehicle position obtained in step 100 and having a radius as a predetermined distance. Is determined as a regional range to be a speech recognition target.

そして、ステップ104において、単語辞書に登録されている単語から、音声認識結果の候補となる単語群を選択する。次のステップ106では、施設検索機能に対応して予め設定されているガイダンス文を取得し、ステップ108において、上記ステップ104で選択された音声認識結果の候補となる単語群の単語を用いて、施設検索機能における音声入力となる発話例文を複数種類生成する。   In step 104, a word group that is a candidate for a speech recognition result is selected from words registered in the word dictionary. In the next step 106, a guidance sentence set in advance corresponding to the facility search function is acquired, and in step 108, using the words of the word group that is the candidate of the speech recognition result selected in step 104, A plurality of types of utterance example sentences used as voice input in the facility search function are generated.

ステップ110では、上記ステップ106で取得したガイダンス文を音声合成し、音声出力部22に出力して、ガイダンスを音声出力させる。そして、ステップ112において、発話例文を識別するための変数tを初期値の1に設定し、ステップ400において、t番目〜t+2番目の3種類の発話例文を表示した画面を、ディスプレイ24に表示させる。   In step 110, the guidance sentence acquired in step 106 is synthesized by speech and output to the speech output unit 22 to output the guidance by speech. Then, in step 112, a variable t for identifying an utterance example sentence is set to an initial value of 1, and in step 400, a screen on which three kinds of t-th to t + 2 utterance example sentences are displayed is displayed on the display 24. .

そして、ステップ116において、音声が入力されたか否かを判定する。音声が入力されていない場合には、ステップ402へ移行して、変数tを3つ増加させて、ステップ114へ戻り、表示していない発話例を複数種類表示させる。   In step 116, it is determined whether or not a voice is input. If no voice is input, the process proceeds to step 402, the variable t is increased by three, the process returns to step 114, and a plurality of utterance examples that are not displayed are displayed.

一方、上記ステップ116で、音声が入力されたと判定された場合には、ステップ120において、上記ステップ104で選択された、単語辞書に登録されている単語のうちの音声認識結果の候補となる単語群を参照して、ユーザ発話を認識する。そして、ステップ122において、上記ステップ120で認識されたユーザ発話に基づいて、システムデータベース30の施設情報テーブルから、施設検索を行い、ステップ124において、上記ステップ122で検索された施設情報をディスプレイ24に表示させて、情報検索処理ルーチンを終了する。   On the other hand, if it is determined in step 116 that a voice is input, in step 120, the word that is selected in step 104 and is a candidate for the speech recognition result among the words registered in the word dictionary. User utterances are recognized with reference to the group. In step 122, a facility search is performed from the facility information table of the system database 30 based on the user utterance recognized in step 120. In step 124, the facility information searched in step 122 is displayed on the display 24. The information search processing routine is terminated.

このように、音声認識の結果の候補として選択された単語群を用いた複数種類の発話例を生成して、複数種類の発話例を同時にディスプレイに表示させることにより、ユーザに対して、認識可能な発話内容と発話方法とを同時に教示することができる。   In this way, a plurality of types of utterance examples using a word group selected as a candidate for the result of speech recognition are generated, and a plurality of types of utterance examples are displayed on the display at the same time, so that the user can recognize them. It is possible to teach the utterance contents and the utterance method at the same time.

なお、上記の実施の形態では、発話例をディスプレイに表示させる場合を例に説明したが、これに限定されるものではなく、発話例をディスプレイに表示させると共に、同時に発話例を音声出力するようにしてもよい。また、第2の実施の形態及び第3の実施の形態と同様に生成された発話禁止例をディスプレイに表示させると共に、同時に発話禁止例を音声出力するようにしてもよい。   In the above embodiment, the case where the utterance example is displayed on the display has been described as an example. However, the present invention is not limited to this, and the utterance example is displayed on the display and the utterance example is output at the same time. It may be. In addition, the utterance prohibition example generated in the same manner as in the second and third embodiments may be displayed on the display, and at the same time, the utterance prohibition example may be output as a voice.

また、上記の実施の形態を第2の実施の形態及び第3の実施の形態に適用しても良い。例えば、発話例と発話禁止例とをディスプレイに表示させるようにしてもよい。   Further, the above embodiment may be applied to the second embodiment and the third embodiment. For example, an utterance example and an utterance prohibition example may be displayed on the display.

次に、第5の実施の形態について説明する。なお、第5の実施の形態に係る車両用ナビゲーションシステムの構成は、第1の実施の形態と同様の構成となっているため、同一符号を付して説明を省略する。   Next, a fifth embodiment will be described. Since the configuration of the vehicle navigation system according to the fifth embodiment is the same as that of the first embodiment, the same reference numerals are given and the description thereof is omitted.

第5の実施の形態では、単語辞書から、音声認識結果の候補として選択される単語数が制限されている点が、第1の実施の形態と主に異なっている。   The fifth embodiment is mainly different from the first embodiment in that the number of words selected from the word dictionary as a speech recognition result candidate is limited.

第5の実施の形態では、システムデータベース30に、図10に示すような、認識対象優先度テーブルが記憶されている。認識対象優先度テーブルには、都道府県別に、単語辞書における業種毎の施設名の登録数が格納されており、また、各業種に対応する項目が、優先度順に上から順番に並んでいる。   In the fifth embodiment, a recognition target priority table as shown in FIG. 10 is stored in the system database 30. The recognition target priority table stores the number of registered facility names for each industry in the word dictionary for each prefecture, and items corresponding to each industry are arranged in order of priority from the top.

また、施設名の選択制限数として一定値(例えば、5000語)が予め設定されており、都道府県別に、音声認識結果の候補として選択すべき施設名を示す単語が、選択制限数を超えないように、業種毎に施設名の選択可否が格納されている。   In addition, a fixed value (for example, 5000 words) is preset as the facility name selection limit number, and the word indicating the facility name to be selected as a speech recognition result candidate for each prefecture does not exceed the selection limit number. As described above, whether or not a facility name can be selected is stored for each type of business.

例えば、選択制限数を5000語とした場合、「愛知県」については、上位6つの業種の施設名の登録数の累計が4850語となるため、「小中学校」以降の優先順位となる業種の施設名は選択されない。「岐阜県」については、全ての業種の施設名の登録数の累計が3260語であるため、全ての業種の施設名が登録可能である。「東京都」については、上位4つの業種の施設名の登録数の累計が4600語となるため、「コンビニエンスストア」以降の優先順位となる業種の施設名は選択されない。   For example, if the number of selection restrictions is 5000 words, the total number of registered facility names for the top six industries for Aichi Prefecture is 4850 words. The facility name is not selected. For “Gifu Prefecture”, the total number of registered facility names for all industries is 3260 words, so that facility names for all industries can be registered. For “Tokyo”, the total number of registered facility names of the top four industries is 4600 words, and therefore, the facility names of the industries that are priorities after “Convenience Store” are not selected.

対話制御部34は、音声入力を用いた施設検索又は目的地設定のための発話例教示処理において、以下のように、音声認識結果の候補となる単語群を選択する。   In the utterance example teaching process for facility search or destination setting using voice input, the dialogue control unit 34 selects a word group as a voice recognition result candidate as follows.

まず、取得した自車位置に基づき、自車位置が存在する都道府県の範囲を、音声認識対象とする地域範囲として決定する。   First, based on the acquired own vehicle position, the range of the prefecture where the own vehicle position exists is determined as an area range to be subjected to speech recognition.

そして、単語辞書に各単語と対応して登録されている位置情報に基づいて、音声認識データベース26の単語辞書の単語から、決定された地域範囲外(自車位置が存在する都道府県外)の位置情報に対応する単語を除外すると共に、認識対象優先度テーブル及び施設情報テーブルに基づいて、選択されないように定められている業種の施設名を表わす単語を除外し、残りの単語を、決定された地域範囲に関連する単語であるとして、音声認識結果の候補となる単語群として選択する。   Then, based on the position information registered corresponding to each word in the word dictionary, from the words in the word dictionary of the speech recognition database 26, it is outside the determined area range (outside the prefecture where the vehicle position exists). In addition to excluding words corresponding to location information, based on the recognition target priority table and facility information table, words that represent facility names of industries that are determined not to be selected are excluded, and the remaining words are determined. As a word group that is a candidate for a speech recognition result, it is selected as a word related to the region range.

なお、第5の実施の形態に係る車両用ナビゲーションシステムの他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of the vehicle navigation system which concern on 5th Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

このように、予め定めた業種の認識対象優先度テーブルに基づき、音声認識結果の候補として選択される単語が表わす施設名の業種を制限することができる。   As described above, based on the recognition target priority table of a predetermined industry, the industry of the facility name represented by the word selected as the speech recognition result candidate can be limited.

なお、上記の第1の実施の形態〜第5の実施の形態では、ガイダンスを、音声出力する場合を例に説明したが、これに限定されるものではなく、ディスプレイにガイダンス文を表示するようにしてもよい。   In the first to fifth embodiments described above, the guidance is described as an example in which the voice is output. However, the present invention is not limited to this, and the guidance text is displayed on the display. It may be.

また、音声認識データベース、システムデータベース、及び地図データベースが、コンピュータの内部に設けられている場合を例に説明したが、これに限定するものではなく、音声認識データベース、システムデータベース、及び地図データベースをコンピュータの外部に設け、これらのデータベースとコンピュータとをネットワークで接続し、コンピュータがネットワークを介してこれらのデータベースにアクセスするようにしてもよい。   Moreover, although the case where the speech recognition database, the system database, and the map database are provided inside the computer has been described as an example, the present invention is not limited thereto, and the speech recognition database, the system database, and the map database are stored in the computer. These databases may be connected to a computer via a network, and the computer may access these databases via the network.

また、本発明に係るプログラムを、記録媒体に格納して提供することも可能である。   The program according to the present invention can be provided by being stored in a recording medium.

本発明の第1の実施の形態に係る車両用ナビゲーションシステムの構成を示す概略図である。It is the schematic which shows the structure of the navigation system for vehicles which concerns on the 1st Embodiment of this invention. 単語辞書の構成を示す図である。It is a figure which shows the structure of a word dictionary. 地域名、接続語、及び業種名の組み合わせの具体例を示す図である。It is a figure which shows the specific example of the combination of a region name, a connection word, and a business type name. 施設検索のための複数種類の発話例文の具体例を示す図である。It is a figure which shows the specific example of the multiple types of utterance example sentence for a facility search. 地域名、接続語、及び施設名の組み合わせの具体例を示す図である。It is a figure which shows the specific example of the combination of a region name, a connection word, and a facility name. 目的地設定のための複数種類の発話例文の具体例を示す図である。It is a figure which shows the specific example of the multiple types of utterance example sentence for a destination setting. 本発明の第1の実施の形態に係る車両用ナビゲーションシステムのコンピュータにおける情報検索処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the information search process routine in the computer of the navigation system for vehicles which concerns on the 1st Embodiment of this invention. ディスプレイに複数種類の発話例を表示した様子を示すイメージ図である。It is an image figure which shows a mode that the example of multiple types of utterances was displayed on the display. 本発明の第4の実施の形態に係る車両用ナビゲーションシステムのコンピュータにおける情報検索処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the information search process routine in the computer of the navigation system for vehicles which concerns on the 4th Embodiment of this invention. 認識対象優先度テーブルの内容を示す図である。It is a figure which shows the content of the recognition object priority table.

符号の説明Explanation of symbols

10 車両用ナビゲーションシステム
12 入力部
18 GPSセンサ
20 コンピュータ
22 音声出力部
24 ディスプレイ
26 音声認識データベース
28 音声認識部
30 システムデータベース
32 地図データベース
34 対話制御部
36 音声合成部
38 表示制御部
DESCRIPTION OF SYMBOLS 10 Vehicle navigation system 12 Input part 18 GPS sensor 20 Computer 22 Voice output part 24 Display 26 Voice recognition database 28 Voice recognition part 30 System database 32 Map database 34 Dialogue control part 36 Voice synthesis part 38 Display control part

Claims (10)

自装置の位置を検出する位置検出手段と、
複数の単語を格納した単語辞書が登録された辞書登録手段と、
前記辞書登録手段に登録された前記単語辞書から、前記位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する選択手段と、
前記選択手段によって選択された単語群を用いて、複数の発話例を生成する生成手段と、
前記生成手段によって生成された複数の発話例を出力装置に出力させる発話例出力制御手段と、
前記選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行う音声認識手段と、
前記複数の単語に関する情報を格納した情報データベースから、前記音声認識手段による音声認識の結果として得られた単語に関する情報を検索する情報検索手段と、
を含む音声認識装置。
Position detecting means for detecting the position of the device itself;
A dictionary registration means in which a word dictionary storing a plurality of words is registered;
Selection means for selecting, from the word dictionary registered in the dictionary registration means, a word group related to a predetermined range including the position of the own device detected by the position detection means as a candidate of a result of speech recognition for the input speech. When,
Generating means for generating a plurality of utterance examples using the word group selected by the selecting means;
Utterance example output control means for causing an output device to output a plurality of utterance examples generated by the generating means;
Speech recognition means for performing speech recognition of input speech input for information retrieval using the word group selected by the selection means;
Information retrieval means for retrieving information on words obtained as a result of speech recognition by the speech recognition means from an information database storing information on the plurality of words;
A speech recognition device.
自装置の位置を検出する位置検出手段と、
複数の単語を格納した単語辞書が登録された辞書登録手段と、
前記辞書登録手段に登録された前記単語辞書から、前記位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する選択手段と、
前記選択手段によって選択された単語群に含まれる単語を用いて、発話例を生成すると共に、前記単語辞書に格納された複数の単語のうち、前記選択手段によって選択されなかった単語を用いて、発話禁止例を生成する生成手段と、
前記生成手段によって生成された発話例及び発話禁止例を出力装置に出力させる発話例出力制御手段と、
前記選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行う音声認識手段と、
前記複数の単語に関する情報を格納した情報データベースから、前記音声認識手段による音声認識の結果として得られた単語に関する情報を検索する情報検索手段と、
を含む音声認識装置。
Position detecting means for detecting the position of the device itself;
A dictionary registration means in which a word dictionary storing a plurality of words is registered;
Selection means for selecting, from the word dictionary registered in the dictionary registration means, a word group related to a predetermined range including the position of the own device detected by the position detection means as a candidate of a result of speech recognition for input speech. When,
Using words included in the word group selected by the selection means, generating an utterance example, and using a word not selected by the selection means among a plurality of words stored in the word dictionary, Generating means for generating an utterance prohibited example;
An utterance example output control means for causing an output device to output an utterance example and an utterance prohibition example generated by the generating means,
Speech recognition means for performing speech recognition of input speech input for information retrieval using the word group selected by the selection means;
Information retrieval means for retrieving information on words obtained as a result of speech recognition by the speech recognition means from an information database storing information on the plurality of words;
A speech recognition device.
自装置の位置を検出する位置検出手段と、
複数の単語を格納した単語辞書が登録された辞書登録手段と、
前記辞書登録手段に登録された前記単語辞書から、前記位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する選択手段と、
前記単語辞書に格納された複数の単語のうち、前記選択手段によって選択されなかった複数の単語を用いて、複数の発話禁止例を生成する生成手段と、
前記生成手段によって生成された発話禁止例を出力装置に出力させる発話例出力制御手段と、
前記選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行う音声認識手段と、
前記複数の単語に関する情報を格納した情報データベースから、前記音声認識手段による音声認識の結果として得られた単語に関する情報を検索する情報検索手段と、
を含む音声認識装置。
Position detecting means for detecting the position of the device itself;
A dictionary registration means in which a word dictionary storing a plurality of words is registered;
Selection means for selecting, from the word dictionary registered in the dictionary registration means, a word group related to a predetermined range including the position of the own device detected by the position detection means as a candidate of a result of speech recognition for the input speech. When,
Generating means for generating a plurality of utterance prohibition examples using a plurality of words not selected by the selecting means among a plurality of words stored in the word dictionary;
Utterance example output control means for causing the output device to output the utterance prohibition example generated by the generation means;
Speech recognition means for performing speech recognition of input speech input for information retrieval using the word group selected by the selection means;
Information retrieval means for retrieving information on words obtained as a result of speech recognition by the speech recognition means from an information database storing information on the plurality of words;
A speech recognition device.
前記単語辞書に格納されている単語は、地域名を表わす単語、業種名を表わす単語、及び施設名を表わす単語を含む請求項1〜請求項3の何れか1項記載の音声認識装置。   The speech recognition apparatus according to any one of claims 1 to 3, wherein the words stored in the word dictionary include a word representing an area name, a word representing an industry name, and a word representing a facility name. 前記単語辞書には、前記地域名を表わす単語及び前記施設名を表わす単語の各々に対応して、位置情報が格納されており、
前記選択手段は、前記辞書登録手段に登録された前記単語辞書から、前記単語辞書に登録されている位置情報に基づいて、前記位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する請求項1〜請求項4の何れか1項記載の音声認識装置。
The word dictionary stores position information corresponding to each of the word representing the area name and the word representing the facility name,
The selection means relates to a predetermined range including the position of the own device detected by the position detection means based on the position information registered in the word dictionary from the word dictionary registered in the dictionary registration means. The speech recognition apparatus according to claim 1, wherein a word group to be selected is selected as a candidate for a result of speech recognition for the input speech.
前記情報データベースには、地域名と業種名と施設名とが対応して格納されており、
前記情報検索手段は、前記情報データベースから、前記音声認識手段による音声認識の結果として得られた単語が表わす地域名及び業種名に対応する施設名を検索する請求項4又は5記載の音声認識装置。
In the information database, region names, industry names, and facility names are stored correspondingly,
6. The voice recognition apparatus according to claim 4, wherein the information search means searches the information database for a facility name corresponding to a region name and a business type name represented by a word obtained as a result of voice recognition by the voice recognition means. .
前記情報データベースには、前記単語が表わす施設名の位置情報と地図情報とが格納されており、
前記情報検索手段は、前記情報データベースの位置情報から、前記音声認識手段による音声認識の結果として得られた単語が表わす施設名の位置情報を検索すると共に、前記情報データベースの地図情報に基づいて、自装置の位置から前記位置情報が示す位置までの経路を探索する請求項4又は5記載の音声認識装置。
In the information database, location information of the facility name represented by the word and map information are stored,
The information search means searches the position information of the facility name represented by the word obtained as a result of the voice recognition by the voice recognition means from the position information of the information database, and based on the map information of the information database, The speech recognition apparatus according to claim 4 or 5, wherein a route from the position of the own apparatus to a position indicated by the position information is searched.
コンピュータを、
複数の単語を格納した単語辞書が登録された辞書登録手段、
前記辞書登録手段に登録された前記単語辞書から、自装置の位置を検出する位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する選択手段、
前記選択手段によって選択された単語群を用いて、複数の発話例を生成する生成手段、
前記生成手段によって生成された複数の発話例を出力装置に出力させる発話例出力制御手段、
前記選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行う音声認識手段、及び
前記複数の単語に関する情報を格納した情報データベースから、前記音声認識手段による音声認識の結果として得られた単語に関する情報を検索する情報検索手段
として機能させるためのプログラム。
Computer
A dictionary registration means in which a word dictionary storing a plurality of words is registered;
From the word dictionary registered in the dictionary registration unit, a word group related to a predetermined range including the position of the own device detected by the position detection unit that detects the position of the own device is obtained as a result of speech recognition for the input speech. Selection means to select as a candidate,
Generating means for generating a plurality of utterance examples using the word group selected by the selecting means;
Utterance example output control means for causing an output device to output a plurality of utterance examples generated by the generating means;
Speech recognition means for performing speech recognition of input speech input for information retrieval using the word group selected by the selection means, and the speech recognition means from an information database storing information on the plurality of words A program for functioning as an information search means for searching for information on a word obtained as a result of voice recognition by the computer.
コンピュータを、
複数の単語を格納した単語辞書が登録された辞書登録手段、
前記辞書登録手段に登録された前記単語辞書から、自装置の位置を検出する位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する選択手段、
前記選択手段によって選択された単語群に含まれる単語を用いて、発話例を生成すると共に、前記単語辞書に格納された複数の単語のうち、前記選択手段によって選択されなかった単語を用いて、発話禁止例を生成する生成手段、
前記生成手段によって生成された発話例及び発話禁止例を出力装置に出力させる発話例出力制御手段、
前記選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行う音声認識手段、及び
前記複数の単語に関する情報を格納した情報データベースから、前記音声認識手段による音声認識の結果として得られた単語に関する情報を検索する情報検索手段
として機能させるためのプログラム。
Computer
A dictionary registration means in which a word dictionary storing a plurality of words is registered;
From the word dictionary registered in the dictionary registration unit, a word group related to a predetermined range including the position of the own device detected by the position detection unit that detects the position of the own device is obtained as a result of speech recognition for the input speech. Selection means to select as a candidate,
Using words included in the word group selected by the selection means, generating an utterance example, and using a word not selected by the selection means among a plurality of words stored in the word dictionary, Generating means for generating an utterance prohibited example;
Utterance example output control means for causing an output device to output an utterance example and an utterance prohibition example generated by the generating means,
Speech recognition means for performing speech recognition of input speech input for information retrieval using the word group selected by the selection means, and the speech recognition means from an information database storing information on the plurality of words A program for functioning as an information search means for searching for information on a word obtained as a result of voice recognition by the computer.
コンピュータを、
複数の単語を格納した単語辞書が登録された辞書登録手段、
前記辞書登録手段に登録された前記単語辞書から、自装置の位置を検出する位置検出手段によって検出された自装置の位置を含む所定範囲に関連する単語群を、入力音声に対する音声認識の結果の候補として選択する選択手段、
前記単語辞書に格納された複数の単語のうち、前記選択手段によって選択されなかった複数の単語を用いて、複数の発話禁止例を生成する生成手段、
前記生成手段によって生成された発話禁止例を出力装置に出力させる発話例出力制御手段、
前記選択手段によって選択された単語群を用いて、情報検索のために入力された入力音声の音声認識を行う音声認識手段、及び
前記複数の単語に関する情報を格納した情報データベースから、前記音声認識手段による音声認識の結果として得られた単語に関する情報を検索する情報検索手段
として機能させるためのプログラム。
Computer
A dictionary registration means in which a word dictionary storing a plurality of words is registered;
From the word dictionary registered in the dictionary registration unit, a word group related to a predetermined range including the position of the own device detected by the position detection unit that detects the position of the own device is obtained as a result of speech recognition for the input speech. Selection means to select as a candidate,
Generating means for generating a plurality of speech utterance examples using a plurality of words not selected by the selecting means among a plurality of words stored in the word dictionary;
Utterance example output control means for causing the output device to output the utterance prohibition example generated by the generating means,
Speech recognition means for performing speech recognition of input speech input for information retrieval using the word group selected by the selection means, and the speech recognition means from an information database storing information on the plurality of words A program for functioning as an information search means for searching for information on a word obtained as a result of voice recognition by the computer.
JP2008302231A 2008-11-27 2008-11-27 Speech recognition apparatus and program Active JP5455355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008302231A JP5455355B2 (en) 2008-11-27 2008-11-27 Speech recognition apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008302231A JP5455355B2 (en) 2008-11-27 2008-11-27 Speech recognition apparatus and program

Publications (2)

Publication Number Publication Date
JP2010128144A true JP2010128144A (en) 2010-06-10
JP5455355B2 JP5455355B2 (en) 2014-03-26

Family

ID=42328586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008302231A Active JP5455355B2 (en) 2008-11-27 2008-11-27 Speech recognition apparatus and program

Country Status (1)

Country Link
JP (1) JP5455355B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015102082A1 (en) * 2014-01-06 2015-07-09 株式会社Nttドコモ Terminal device, program, and server device for providing information according to user data input
JP2016122324A (en) * 2014-12-25 2016-07-07 アルパイン株式会社 Recommended information providing system, server device, information processing device and recommended information providing method
JP2016170238A (en) * 2015-03-12 2016-09-23 アルパイン株式会社 Voice input device and computer program
WO2021063343A1 (en) * 2019-09-30 2021-04-08 华为技术有限公司 Voice interaction method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695828A (en) * 1992-09-14 1994-04-08 Toshiba Corp Voice input system
JP2001249686A (en) * 2000-03-08 2001-09-14 Matsushita Electric Ind Co Ltd Method and device for recognizing speech and navigation device
JP2002123279A (en) * 2000-10-16 2002-04-26 Pioneer Electronic Corp Institution retrieval device and its method
JP2006162782A (en) * 2004-12-03 2006-06-22 Mitsubishi Electric Corp Voice recognizer
JP2006184669A (en) * 2004-12-28 2006-07-13 Nissan Motor Co Ltd Device, method, and system for recognizing voice
WO2007077703A1 (en) * 2006-01-06 2007-07-12 Pioneer Corporation Audio recognition device, display method, and display processing program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695828A (en) * 1992-09-14 1994-04-08 Toshiba Corp Voice input system
JP2001249686A (en) * 2000-03-08 2001-09-14 Matsushita Electric Ind Co Ltd Method and device for recognizing speech and navigation device
JP2002123279A (en) * 2000-10-16 2002-04-26 Pioneer Electronic Corp Institution retrieval device and its method
JP2006162782A (en) * 2004-12-03 2006-06-22 Mitsubishi Electric Corp Voice recognizer
JP2006184669A (en) * 2004-12-28 2006-07-13 Nissan Motor Co Ltd Device, method, and system for recognizing voice
WO2007077703A1 (en) * 2006-01-06 2007-07-12 Pioneer Corporation Audio recognition device, display method, and display processing program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015102082A1 (en) * 2014-01-06 2015-07-09 株式会社Nttドコモ Terminal device, program, and server device for providing information according to user data input
CN105874531A (en) * 2014-01-06 2016-08-17 株式会社Ntt都科摩 Terminal device, program, and server device for providing information according to user data input
JPWO2015102082A1 (en) * 2014-01-06 2017-03-23 株式会社Nttドコモ Terminal device, program, and server device for providing information in response to user data input
JP2016122324A (en) * 2014-12-25 2016-07-07 アルパイン株式会社 Recommended information providing system, server device, information processing device and recommended information providing method
JP2016170238A (en) * 2015-03-12 2016-09-23 アルパイン株式会社 Voice input device and computer program
WO2021063343A1 (en) * 2019-09-30 2021-04-08 华为技术有限公司 Voice interaction method and device

Also Published As

Publication number Publication date
JP5455355B2 (en) 2014-03-26

Similar Documents

Publication Publication Date Title
JP4270611B2 (en) Input system
KR20070113665A (en) Method and apparatus for setting destination in navigation terminal
JP4466379B2 (en) In-vehicle speech recognition device
JP2002073075A (en) Voice recognition device and its method
JP2002123290A (en) Speech recognition device and speech recognition method
JP2010139826A (en) Voice recognition system
JP2010230918A (en) Retrieving device
JP5455355B2 (en) Speech recognition apparatus and program
JP4642953B2 (en) Voice search device and voice recognition navigation device
JP6100101B2 (en) Candidate selection apparatus and candidate selection method using speech recognition
JP2009140287A (en) Retrieval result display device
WO2006137246A1 (en) Speech recognizing device, speech recognizing method, speech recognizing program, and recording medium
JP2005275228A (en) Navigation system
US20040015354A1 (en) Voice recognition system allowing different number-reading manners
JP2011232668A (en) Navigation device with voice recognition function and detection result presentation method thereof
JP2003005783A (en) Navigation system and its destination input method
EP1895508B1 (en) Speech recognizing device, information processing device, speech recognizing method, program, and recording medium
US20150192425A1 (en) Facility search apparatus and facility search method
WO2006028171A1 (en) Data presentation device, data presentation method, data presentation program, and recording medium containing the program
JPH11325945A (en) On-vehicle navigation system
JP2009025105A (en) Data retrieval system
JP2005316022A (en) Navigation device and program
JP2003140682A (en) Voice recognition device and voice dictionary generation method
JP2008046758A (en) On-vehicle information terminal, and operation method and menu item retrieval method for information terminal
JP2006178898A (en) Spot retrieval device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111010

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20111012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20111012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140107

R151 Written notification of patent or utility model registration

Ref document number: 5455355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250