JP2009175233A - Speech recognition device, navigation device, and destination setting program - Google Patents

Speech recognition device, navigation device, and destination setting program Download PDF

Info

Publication number
JP2009175233A
JP2009175233A JP2008011349A JP2008011349A JP2009175233A JP 2009175233 A JP2009175233 A JP 2009175233A JP 2008011349 A JP2008011349 A JP 2008011349A JP 2008011349 A JP2008011349 A JP 2008011349A JP 2009175233 A JP2009175233 A JP 2009175233A
Authority
JP
Japan
Prior art keywords
visited
speech recognition
recognition
point
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008011349A
Other languages
Japanese (ja)
Inventor
Toshihiro Kujirai
俊宏 鯨井
Yoshitaka Shin
吉高 新
Takashi Doi
敬司 土井
Naohiko Fukaya
直彦 深谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Hitachi Ltd filed Critical Clarion Co Ltd
Priority to JP2008011349A priority Critical patent/JP2009175233A/en
Publication of JP2009175233A publication Critical patent/JP2009175233A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a speech recognition device preventing incorrect recognition of input speech. <P>SOLUTION: In the speech recognition device recognizing a place indicated by the input speech by comparing the input speech with recognition grammar having information on one or more places as a speech recognition object, the speech recognition device includes a visit history list in which information on already visited places is registered, creates the recognition grammar including the already visited speech recognition objects in which vocabulary means that it is already visited and information on the already visited places registered in the visit history list are connected, and compares the input speech with the speech recognition objects included in the created recognition grammar to recognize the place indicated by the input speech. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、目的地までの経路を案内するナビゲーション装置に関し、特に、音声によって目的地を設定するナビゲーション装置に関する。   The present invention relates to a navigation device that guides a route to a destination, and more particularly to a navigation device that sets a destination by voice.

現在のカーナビゲーションシステムは大容量のハードディスク装置(HDD)を搭載しているので、目的地として設定できる地点の数が数千万にのぼる。また、携帯電話の歩行者ナビゲーションシステムにおいても、サーバが地点の情報を管理しているので、目的地として設定できる地点の数は、カーナビゲーションシステムと同じく数千万にのぼる。   Since the current car navigation system is equipped with a large-capacity hard disk drive (HDD), there are tens of millions of points that can be set as destinations. Also, in the mobile phone pedestrian navigation system, since the server manages the location information, the number of locations that can be set as destinations is tens of millions, as in the car navigation system.

ユーザが目的地として設定できる地点の情報から目的地として設定する地点を検索する方法としては、目的地として設定する地点の電話番号、目的地として設定する地点の住所、又は目的地として設定する地点の施設名(その施設名の一部でもよい)を用いて検索する方法がある。   As a method of searching for a point set as a destination from information on points that can be set as a destination by a user, a telephone number of a point set as a destination, an address of a point set as a destination, or a point set as a destination There is a method of searching using a facility name (may be a part of the facility name).

また、目的地として設定する地点を検索するキーとなる電話番号等の検索キー情報をユーザが入力する方法としては、ナビゲーションシステムの画面上に表示されるキーボードによる入力方法、及び音声認識による入力方法が知られている。   In addition, as a method for a user to input search key information such as a telephone number that is a key for searching for a point set as a destination, an input method using a keyboard displayed on a screen of a navigation system, and an input method using voice recognition It has been known.

検索キー情報の入力方法が音声認識である場合、ナビゲーションシステムは、ユーザが発声した音声を認識する音声認識部を備える。音声認識部は、大量の音声データから、発話を構成する単位標準パターンの音響モデルを学習する。そして、音声認識部は、学習した単位標準パターンの音響モデルを連結することによって、認識対象とする語彙群を生成する。   When the input method of the search key information is speech recognition, the navigation system includes a speech recognition unit that recognizes speech uttered by the user. The speech recognition unit learns an acoustic model of a unit standard pattern that constitutes an utterance from a large amount of speech data. The speech recognition unit generates a vocabulary group to be recognized by connecting the acoustic models of the learned unit standard patterns.

発話を構成する単位標準パターンとしては、音節、母音の定常部、子音の定常部、及び音素片等が用いられる。なお、音素片は、音節、母音の定常部及び子音の定常部の遷移状態からなる。   As a unit standard pattern constituting an utterance, a syllable, a vowel stationary part, a consonant stationary part, a phoneme segment, and the like are used. Note that a phoneme segment includes transition states of a syllable, a vowel stationary part, and a consonant stationary part.

単位標準パターンの音響モデルを表現する方法として、HMM(Hidden Markov Model)技術が知られている(非特許文献1参照)。   HMM (Hidden Markov Model) technology is known as a method for expressing an acoustic model of a unit standard pattern (see Non-Patent Document 1).

また、単位標準パターンの音響モデルを連結した認識対象の語彙群を表現する方法としては、SRGS(Speech Recognition Grammar Specification)等が知られている(非特許文献2参照)。   Moreover, SRGS (Speech Recognition Grammar Specification) etc. are known as a method of expressing the recognition target vocabulary group which connected the acoustic model of the unit standard pattern (refer nonpatent literature 2).

現在の音声認識は、HMM技術等によって表現された確率的な単位標準パターンの音響モデルとユーザによって入力された音声の音響モデルとのパターンマッチングによって実現される。   Current speech recognition is realized by pattern matching between an acoustic model of a stochastic unit standard pattern expressed by HMM technology or the like and an acoustic model of speech input by a user.

このため、ユーザによって入力された音声を音声認識部が誤って認識し、ユーザが意図した目的地と異なる目的地が選択される場合がある。   For this reason, the voice recognition unit may erroneously recognize the voice input by the user, and a destination different from the destination intended by the user may be selected.

音声認識部の誤認識を抑制するために、認識対象とする語彙群を制限することが考えられる。   In order to suppress misrecognition of the speech recognition unit, it is conceivable to limit the vocabulary group to be recognized.

ユーザが検索に使用したい検索キー情報を指定し、音声認識部は、指定された検索キー情報に対応する音声認識モードを選択する。そして、ユーザは、検索キー情報を指定した後に、音声を入力する。なお、選択された音声認識モードの認識対象となる語彙群は、指定された検索キー情報に対応する語彙群のみであって、指定された検索キー情報に対応しない語彙群は削除されている。   The user designates search key information desired to be used for the search, and the voice recognition unit selects a voice recognition mode corresponding to the designated search key information. Then, the user inputs voice after designating the search key information. Note that the vocabulary group to be recognized in the selected speech recognition mode is only the vocabulary group corresponding to the designated search key information, and the vocabulary group not corresponding to the designated search key information is deleted.

具体的には、ナビゲーションシステムは、音声認識モードとして、電話番号認識モード、住所認識モード及び施設名認識モード等を有する。例えば、電話番号認識モードの認識対象となる語彙群は、電話番号に対応する語彙群のみを含み、住所及び施設名に対応する語彙群を含まない。   Specifically, the navigation system has a telephone number recognition mode, an address recognition mode, a facility name recognition mode, and the like as voice recognition modes. For example, the vocabulary group to be recognized in the telephone number recognition mode includes only the vocabulary group corresponding to the telephone number and does not include the vocabulary group corresponding to the address and the facility name.

さらに、住所認識モードでは、認識対象となる語彙群が、都道府県及び市町村別に分類され、施設名認識モードでは、認識対象となる語彙群が、施設のジャンル別に分類されていてもよい。   Furthermore, in the address recognition mode, the vocabulary groups to be recognized may be classified by prefecture and municipality, and in the facility name recognition mode, the vocabulary groups to be recognized may be classified by the genre of the facility.

この場合、ユーザは、使用する検索キー情報を指定後、さらに分類を指定する。これによって、音声認識部は、認識対象となる語彙群をさらに減少させることができる。   In this case, after specifying the search key information to be used, the user further specifies the classification. Thereby, the voice recognition unit can further reduce the vocabulary group to be recognized.

また、目的地として設定する地点の検索キー情報ではなく、ナビゲーションシステムに指示するコマンド名を音声認識対象とするナビゲーションシステムが知られている(特許文献1及び特許文献2参照)。   In addition, there is known a navigation system in which a command name instructed to the navigation system is used as a speech recognition target instead of search key information of a point set as a destination (see Patent Document 1 and Patent Document 2).

具体的には、このナビゲーションシステムが、入力されたコマンド名を示す音声を認識して、認識されたコマンドに基づいて、ナビゲーションシステムの動作を切り換える。   Specifically, the navigation system recognizes a voice indicating the input command name, and switches the operation of the navigation system based on the recognized command.

また、ユーザが実際に訪れた地点の履歴情報及び目的地として設定された地点の履歴を利用して、目的地を設定するナビゲーションシステムも知られている(特許文献3及び特許文献4参照)。   There is also known a navigation system that sets a destination by using history information of a point actually visited by a user and a point history set as a destination (see Patent Literature 3 and Patent Literature 4).

さらに、音声認識モードとして、目的地を設定する語彙群が目的地として設定された地点に対応する語彙群のみを含む目的地履歴モードを有するナビゲーションシステムも知られている。   Furthermore, as a speech recognition mode, a navigation system having a destination history mode in which a vocabulary group for setting a destination includes only a vocabulary group corresponding to a point set as the destination is also known.

このナビゲーションシステムは、音声認識モードを切り換えることを指示するコマンドに基づいて、音声認識モードを目的地履歴モードに切り換える。そして、このナビゲーションシステムは、ユーザによって入力された音声と、目的地として設定された地点に対応する語彙群のみからなる語彙群と、を比較して、目的地を設定する。
特開2004-309353号公報 特開2000-259184号公報 特開2006-349427号公報 特開2006-300552号公報 Kai-Fu Lee著、「Automatic Speech Recognition: The Development of the Sphinx Recognition System」、第1版、Kluwer Academic Pub、1988年11月、p17-43 Andrew Hunt、外1名、「Speech Recognition Grammar Specification Version 1.0」、[online]、平成16年3月16日、W3C、[平成19年9月18日検索]、インターネット、<URL:http://www.w3.org/TR/speech-grammar/>
The navigation system switches the voice recognition mode to the destination history mode based on a command for instructing switching of the voice recognition mode. The navigation system sets the destination by comparing the voice input by the user with a vocabulary group consisting only of vocabulary groups corresponding to the point set as the destination.
JP 2004-309353 A JP 2000-259184 A JP 2006-349427 A JP 2006-300552 JP Kai-Fu Lee, "Automatic Speech Recognition: The Development of the Sphinx Recognition System", 1st edition, Kluwer Academic Pub, November 1988, p17-43 Andrew Hunt, 1 other, "Speech Recognition Grammar Specification Version 1.0", [online], March 16, 2004, W3C, [searched September 18, 2007], Internet, <URL: http: // www.w3.org/TR/speech-grammar/ >

従来のナビゲーションシステムにおいて、ユーザは、認識対象となる語彙群を減少させるために、電話番号認識モード、住所認識モード、及び施設名認識モード等からなる音声認識モードを、利用したい音声認識モードに切り替えてから、目的地を設定するための音声を入力していた。   In the conventional navigation system, the user switches the voice recognition mode including the telephone number recognition mode, the address recognition mode, and the facility name recognition mode to the voice recognition mode to be used in order to reduce the vocabulary group to be recognized. After that, the voice for setting the destination was input.

このため、ユーザは、目的地を設定するための音声を入力する前に、音声認識モードを切り替えなければならず、当該切り替えの操作が煩わしいものであった。   For this reason, the user has to switch the voice recognition mode before inputting the voice for setting the destination, and the switching operation is troublesome.

本発明の目的は、事前に音声認識モードを切り替える必要がなく、誤認識の発生が少ないナビゲーションシステムを提供することである。   An object of the present invention is to provide a navigation system that does not need to switch voice recognition modes in advance and that causes less recognition errors.

また、従来の技術では、ある地点の名称が、未訪問の地点として登録され、かつ訪問済みの地点として登録されていた場合、訪問済みの地点の名称を発声した場合でも、非常に数の多い未訪問の地点として誤認識されてしまう可能性が高かった。   In addition, in the conventional technology, when the name of a certain point is registered as an unvisited point and registered as a visited point, there are a large number even if the name of a visited point is spoken There was a high possibility of being misrecognized as an unvisited point.

本発明の代表的な一形態によると、入力された音声と一つ以上の地点の情報を音声認識対象とする認識文法とを比較することによって、前記入力された音声が示す地点を認識する音声認識装置において、前記音声認識装置は、以前に訪問したことがある訪問済み地点の情報が登録された訪問履歴リストを有し、訪問済みであることを意味する語彙と前記訪問履歴リストに登録された訪問済み地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成し、前記入力された音声と前記作成された認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識することを特徴とする。   According to a representative aspect of the present invention, the speech that recognizes the point indicated by the input speech by comparing the input speech with a recognition grammar that uses information on one or more points as a speech recognition target. In the recognition device, the voice recognition device has a visit history list in which information on visited sites that have been visited before is registered, and is registered in the visit history list with a vocabulary meaning that the user has visited. Generating a recognition grammar including a visited speech recognition target obtained by linking the information on the visited points, and comparing the input speech with a speech recognition target included in the generated recognition grammar. It is characterized by recognizing a point indicated by the received voice.

本発明の一形態によると、訪問済みであることを意味する語彙と前記訪問履歴リストに登録された訪問済み地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成するので、入力された音声の誤認識を防止できる。   According to one aspect of the present invention, a recognition grammar including a visited speech recognition target is created by connecting a vocabulary meaning visited and information on a visited point registered in the visit history list. Misrecognition of recorded voice can be prevented.

<第1実施形態>
本発明の第1実施形態を図1〜図5を用いて説明する。
<First Embodiment>
A first embodiment of the present invention will be described with reference to FIGS.

図1は、本発明の第1実施形態の目的地入力装置100の構成を示すブロック図である。   FIG. 1 is a block diagram showing the configuration of the destination input device 100 according to the first embodiment of the present invention.

目的地入力装置100は、現在位置からユーザによって入力された目的地までの経路をディスプレイ上に表示することによって、又は音声によって、ユーザを目的地まで案内する装置である。   The destination input device 100 is a device that guides the user to the destination by displaying the route from the current position to the destination input by the user on the display or by voice.

目的地入力装置100は、システム制御部199を備える。システム制御部199には、GPS受信機101、自律航法センサ102、ディスプレイ103、マイク104、A/Dコンバータ105、HDD106、地図情報読込部107、経路探索部108、音声認識部109、認識文法作成部110、地点情報記憶部111、訪問履歴管理部112、訪問履歴記憶部113、及び目的地記憶部114が接続される。   The destination input device 100 includes a system control unit 199. The system control unit 199 includes a GPS receiver 101, an autonomous navigation sensor 102, a display 103, a microphone 104, an A / D converter 105, an HDD 106, a map information reading unit 107, a route search unit 108, a voice recognition unit 109, and a recognition grammar creation. Unit 110, point information storage unit 111, visit history management unit 112, visit history storage unit 113, and destination storage unit 114 are connected.

システム制御部199は、図示しないCPU、ROM、RAM及びデータバスを備える。   The system control unit 199 includes a CPU, a ROM, a RAM, and a data bus (not shown).

CPUは、RAMにロードされた各種プログラムの演算処理を実行する。RAMには、ROM及びHDD106に記憶された各種プログラム及び各種データが、CPUによってロードされる。   The CPU executes arithmetic processing of various programs loaded in the RAM. Various programs and various data stored in the ROM and the HDD 106 are loaded into the RAM by the CPU.

RAMは、CPUが使用するデータ等のワークエリアである。CPU、ROM、及びRAMは、データバスによって接続される。   The RAM is a work area for data used by the CPU. The CPU, ROM, and RAM are connected by a data bus.

GPS受信機101は、図示しない複数のGPS(Global Positioning System)衛星からの信号を受信する装置である。   The GPS receiver 101 is a device that receives signals from a plurality of GPS (Global Positioning System) satellites (not shown).

自律航法センサ102は、目的地入力装置100を搭載した車両のジャイロ情報及び車速パルスを用いて、車両の現在位置及び車両の向きを推定する。   The autonomous navigation sensor 102 estimates the current position of the vehicle and the direction of the vehicle using the gyro information and the vehicle speed pulse of the vehicle on which the destination input device 100 is mounted.

ディスプレイ103には、車両の現在位置周辺の地図情報、及び目的地として設定された地点までの経路が表示される。   The display 103 displays map information around the current position of the vehicle and a route to a point set as a destination.

マイク104は、ユーザが発声した音声を電気信号(アナログ信号)に変換する装置である。   The microphone 104 is a device that converts voice uttered by the user into an electrical signal (analog signal).

A/Dコンバータ105は、マイク104によって変換されたアナログ信号をデジタル信号に変換する装置である。   The A / D converter 105 is a device that converts the analog signal converted by the microphone 104 into a digital signal.

HDD106は、地図情報及び地点情報リスト300等を記憶する。地点情報は、目的地として設定される地点の施設名、読み方及びジャンル等を含む。なお、地点情報リスト300は、図3で詳細を説明する。   The HDD 106 stores map information, a spot information list 300, and the like. The point information includes the facility name, reading method, and genre of the point set as the destination. The point information list 300 will be described in detail with reference to FIG.

地図情報読込部107は、HDD106に記憶されている地図情報をシステム制御部199に備わるRAMに読み出す。   The map information reading unit 107 reads map information stored in the HDD 106 to a RAM provided in the system control unit 199.

経路探索部108は、車両の現在位置から目的地として設定された地点までの移動経路を算出する。なお、移動経路の算出方法としては、例えば、ダイクストラ法が用いられる。   The route search unit 108 calculates a movement route from the current position of the vehicle to the point set as the destination. For example, the Dijkstra method is used as a method for calculating the movement route.

音声認識部109は、ユーザが発声した音声と認識文法作成部110によって作成された認識語彙群とを比較して、ユーザが発声した音声を認識する。音声認識方法は、図5で詳細に説明する。   The speech recognition unit 109 compares the speech uttered by the user with the recognition vocabulary group created by the recognition grammar creation unit 110 to recognize the speech uttered by the user. The voice recognition method will be described in detail with reference to FIG.

認識文法作成部110は、例えば、SRGSフォーマットを用いて、ユーザが発声した音声と比較するための認識語彙群を作成する。認識語彙群の作成方法は、図3で詳細に説明する。   The recognition grammar creation unit 110 creates a recognition vocabulary group for comparison with speech uttered by the user, for example, using the SRGS format. A method of creating a recognized vocabulary group will be described in detail with reference to FIG.

地点情報記憶部111は、HDD106に記憶された地点情報をシステム制御部199に備わるRAMに読み出す。   The point information storage unit 111 reads the point information stored in the HDD 106 into a RAM provided in the system control unit 199.

訪問履歴管理部112は、ユーザが実際に訪問した地点を訪問済みの地点として判定する。   The visit history management unit 112 determines a point where the user has actually visited as a visited point.

訪問履歴記憶部113は、訪問履歴管理部112によって訪問済みと判定された地点を登録した訪問履歴リスト400をシステム制御部199に備わるRAM又はHDD106に記憶する。なお、訪問履歴リスト400は、図4で詳細を説明する。   The visit history storage unit 113 stores a visit history list 400 in which points determined to have been visited by the visit history management unit 112 are stored in the RAM or HDD 106 provided in the system control unit 199. The visit history list 400 will be described in detail with reference to FIG.

目的地記憶部114は、目的地として設定された地点をRAM又はHDD106に記録する。   The destination storage unit 114 records the point set as the destination in the RAM or the HDD 106.

目的地入力装置100は、図1に示す構成をすべて備えなくてもよい。具体的には、現在位置を特定するために利用されるGPS受信機101及び自律航法センサ102、ユーザに目的地までの経路を表示するディスプレイ103、ユーザによって発声された音声をアナログ信号に変換するマイク104は、ユーザが目的地入力装置100を利用する場所に設置されていなければならない。   The destination input device 100 does not have to have all the configurations shown in FIG. Specifically, the GPS receiver 101 and the autonomous navigation sensor 102 that are used to specify the current position, the display 103 that displays the route to the destination to the user, and the voice uttered by the user is converted into an analog signal. The microphone 104 must be installed in a place where the user uses the destination input device 100.

しかし、GPS受信機101、自律航法センサ102、ディスプレイ103、及びマイク104以外の構成(つまり、A/Dコンバータ105、HDD106、地図情報読込部107、経路探索部108、音声認識部109、認識文法作成部110、地点情報記憶部111、訪問履歴管理部112、訪問履歴記憶部113、及び目的地記憶部114)は、目的地入力装置100に備えられなくても、目的地入力装置100にネットワーク203(図2参照)を介して接続されるサーバ200(図2参照)に備えられてもよい。   However, configurations other than the GPS receiver 101, the autonomous navigation sensor 102, the display 103, and the microphone 104 (that is, the A / D converter 105, the HDD 106, the map information reading unit 107, the route search unit 108, the voice recognition unit 109, the recognition grammar). The creation unit 110, the point information storage unit 111, the visit history management unit 112, the visit history storage unit 113, and the destination storage unit 114) are not provided in the destination input device 100, but the network is connected to the destination input device 100. The server 200 (see FIG. 2) connected via the server 203 (see FIG. 2) may be provided.

図2では、目的地入力装置100が図1に示す構成をすべて備えない場合について一例を挙げて説明する。   In FIG. 2, a case where the destination input device 100 does not have all the configurations shown in FIG. 1 will be described as an example.

図2は、本発明の第1実施形態の変形例の目的地入力システムの構成を示すブロック図である。なお、第1実施形態の目的地入力装置100と同じ構成は、同じ番号を付与し、説明を省略する。   FIG. 2 is a block diagram showing a configuration of a destination input system according to a modification of the first embodiment of the present invention. In addition, the same structure as the destination input device 100 of 1st Embodiment gives the same number, and abbreviate | omits description.

目的地入力システムは、目的地入力装置100及びサーバ200を備える。目的地入力装置100は、ネットワーク203を介して、サーバ200に接続される。   The destination input system includes a destination input device 100 and a server 200. The destination input device 100 is connected to the server 200 via the network 203.

目的地入力装置100は、GPS受信機101、自律航法センサ102、ディスプレイ103、マイク104、A/Dコンバータ105、HDD106、地図情報読込部107、通信部115、及びシステム制御部199を備える。   The destination input device 100 includes a GPS receiver 101, an autonomous navigation sensor 102, a display 103, a microphone 104, an A / D converter 105, an HDD 106, a map information reading unit 107, a communication unit 115, and a system control unit 199.

通信部115は、目的地入力装置100をネットワーク203に接続するためのインタフェースである。   The communication unit 115 is an interface for connecting the destination input device 100 to the network 203.

サーバ200は、経路探索部108、音声認識部109、認識文法作成部110、地点情報記憶部111、訪問履歴管理部112、訪問履歴記憶部113、目的地記憶部114、通信部202、及びシステム制御部299を備える。   The server 200 includes a route search unit 108, a voice recognition unit 109, a recognition grammar creation unit 110, a point information storage unit 111, a visit history management unit 112, a visit history storage unit 113, a destination storage unit 114, a communication unit 202, and a system. A control unit 299 is provided.

通信部202は、サーバ200をネットワーク203に接続するためのインタフェースである。   The communication unit 202 is an interface for connecting the server 200 to the network 203.

システム制御部299は、図1に示す目的地入力装置100に備わるシステム制御部199と同じ構成である。   The system control unit 299 has the same configuration as the system control unit 199 provided in the destination input device 100 shown in FIG.

図3は、本発明の実施形態の地点情報リスト300の説明図である。   FIG. 3 is an explanatory diagram of the point information list 300 according to the embodiment of this invention.

地点情報リスト300は、識別子301、施設名302、読み303、ジャンル304、nearby305、緯度306、及び経度307を含む。   The point information list 300 includes an identifier 301, a facility name 302, a reading 303, a genre 304, a near 305, a latitude 306, and a longitude 307.

識別子301には、地点の一意な識別子が登録される。施設名302には、地点の名称が登録される。   In the identifier 301, a unique identifier of a point is registered. In the facility name 302, the name of the point is registered.

読み303には、施設名302に登録された地点の名称の読み方が登録される。ジャンル304には、地点が属するジャンルが登録される。例えば、地点がラーメン店であれば、ジャンル304には、「飲食店」が登録される。   In the reading 303, how to read the name of the point registered in the facility name 302 is registered. In the genre 304, the genre to which the point belongs is registered. For example, if the point is a ramen shop, “Restaurant” is registered in the genre 304.

nearby305には、同じサービスを提供する地点であれば地点の名称は問わない地点に、trueが予め登録される。なお、nearby305は、第1実施形態では使用せず、第4実施形態で使用する。   In near 305, true is registered in advance at a point where the name of the point does not matter as long as the point provides the same service. The nearby 305 is not used in the first embodiment, but is used in the fourth embodiment.

緯度306には、地点の緯度が登録され、経度307には、地点の経度が登録される。   The latitude of the point is registered in the latitude 306, and the longitude of the point is registered in the longitude 307.

図4は、本発明の第1実施形態の訪問履歴リスト400の説明図である。   FIG. 4 is an explanatory diagram of the visit history list 400 according to the first embodiment of this invention.

訪問履歴リスト400は、識別子401、最終訪問日402、訪問回数403、及び読み404を含む。   The visit history list 400 includes an identifier 401, a last visit date 402, a visit count 403, and a reading 404.

識別子401には、訪問済みの地点の一意な識別子が登録される。なお、識別子401に登録される識別子は、図3に示す地点情報リスト300の識別子301に登録される登録される識別子と対応する。   In the identifier 401, a unique identifier of a visited point is registered. The identifier registered in the identifier 401 corresponds to the registered identifier registered in the identifier 301 of the spot information list 300 shown in FIG.

最終訪問日402には、ユーザが当該地点を最後に訪問した年月日が登録される、
訪問回数403には、ユーザが当該地点を訪問した回数が登録される。読み404には、当該地点の施設の名称の読み方が登録される。
In the last visit date 402, the date on which the user last visited the point is registered.
The number of visits 403 registers the number of times the user has visited the point. In the reading 404, how to read the name of the facility at the point is registered.

図5は、本発明の第1実施形態の認識文法作成部110を中心とした各種情報の入出力の説明図である。   FIG. 5 is an explanatory diagram of input / output of various information centered on the recognition grammar creation unit 110 according to the first embodiment of this invention.

まず、ユーザが発声した音声が音声認識部109に入力されるまでの過程を説明する。   First, a process until the voice uttered by the user is input to the voice recognition unit 109 will be described.

ユーザが発声した音声は、マイク104によって、アナログの電気信号である音声信号に変換される。そして、マイク104は、変換された音声信号をA/Dコンバータ105に出力する。   The voice uttered by the user is converted by the microphone 104 into a voice signal that is an analog electric signal. Then, the microphone 104 outputs the converted audio signal to the A / D converter 105.

A/Dコンバータ105は、入力された音声信号をデジタルな信号であるデジタル音声信号に変換して、変換したデジタル音声信号を音声認識部109に出力する。   The A / D converter 105 converts the input audio signal into a digital audio signal that is a digital signal, and outputs the converted digital audio signal to the audio recognition unit 109.

次に、音声認識部109によって音声が認識されるために用いられる認識文法が、音声認識部109に入力されるまでの過程を説明する。   Next, a process until a recognition grammar used for speech recognition by the speech recognition unit 109 is input to the speech recognition unit 109 will be described.

まず、訪問履歴管理部112は、ユーザが訪問した地点を訪問済みの地点として訪問履歴記憶部113に登録する。   First, the visit history management unit 112 registers a point visited by the user in the visit history storage unit 113 as a visited point.

訪問履歴管理部112がユーザが地点を訪問したか否かを判定する方法について説明する。   A method in which the visit history management unit 112 determines whether or not the user has visited a point will be described.

第1の方法としては、ユーザが目的地として設定した地点を、ユーザが実際に訪問したか否かに関わらず、訪問済みの地点として判定する方法がある。具体的には、訪問履歴管理部112は、ユーザによって設定された目的地を記憶する目的地記憶部114から目的地として設定された地点を読み出し、読み出した地点を訪問済みの地点として判定する。   As a first method, there is a method of determining a point set as a destination by the user as a visited point regardless of whether or not the user has actually visited. Specifically, the visit history management unit 112 reads a point set as the destination from the destination storage unit 114 that stores the destination set by the user, and determines the read point as a visited point.

第2の方法としては、ユーザが目的地として設定し、かつユーザが実際に訪問した地点を、訪問済みの地点として判定する方法がある。具体的には、訪問履歴管理部112は、目的地記憶部114から目的地として設定された地点を読み出し、読み出された地点とユーザの現在位置との距離が所定値以下になった場合に、読み出した地点を訪問済みの地点として判定する。   As a second method, there is a method in which a point set by the user as a destination and a point actually visited by the user is determined as a visited point. Specifically, the visit history management unit 112 reads a point set as the destination from the destination storage unit 114, and when the distance between the read point and the current position of the user is equal to or less than a predetermined value. The read point is determined as a visited point.

第3の方法としては、ユーザが同じ地点から所定時間の間移動しない場合に、この場所からの距離が最も小さい地点を、訪問済みの地点として判定する方法がある。具体的には、訪問履歴管理部112は、ユーザの移動量が所定時間の間、継続して所定値以下である場合、この場所からの距離が最も小さい地点を、訪問済みの地点として判定する。   As a third method, when the user does not move from the same point for a predetermined time, there is a method of determining a point having the smallest distance from this place as a visited point. Specifically, the visit history management unit 112 determines a point having the smallest distance from this place as a visited point when the movement amount of the user is continuously equal to or less than a predetermined value for a predetermined time. .

訪問履歴記憶部113は、訪問済みの地点として判定された地点を、訪問履歴リスト400に登録する。   The visit history storage unit 113 registers points determined as visited points in the visit history list 400.

また、訪問履歴記憶部113は、認識文法作成部110からの読み出し要求に応じて、訪問履歴リスト400を認識文法作成部110に出力する。   Also, the visit history storage unit 113 outputs the visit history list 400 to the recognition grammar creation unit 110 in response to a read request from the recognition grammar creation unit 110.

なお、訪問履歴管理部112は、訪問履歴記憶部113に記憶されている訪問履歴リスト400に登録された訪問済みの地点を削除できる。具体的には、ユーザは、訪問履歴リスト400に登録された訪問済みの地点のうち、削除する訪問済みの地点を指示する。そして、訪問履歴管理部112は、ユーザによって指示された訪問済みの地点を訪問履歴リスト400から削除する。   The visit history management unit 112 can delete the visited points registered in the visit history list 400 stored in the visit history storage unit 113. Specifically, the user instructs a visited site to be deleted among visited sites registered in the visit history list 400. Then, the visit history management unit 112 deletes the visited points designated by the user from the visit history list 400.

認識文法作成部110は、訪問履歴記憶部113に記憶された訪問履歴リスト400を読み出す。そして、認識文法作成部110は、読み出した訪問履歴リスト400に基づいて、認識文法を作成する。認識文法作成部110が認識文法を作成する処理については、図6〜図8で詳細を説明する。   The recognition grammar creation unit 110 reads the visit history list 400 stored in the visit history storage unit 113. Then, the recognition grammar creation unit 110 creates a recognition grammar based on the read visit history list 400. The process in which the recognition grammar creation unit 110 creates the recognition grammar will be described in detail with reference to FIGS.

音声認識部109は、入力された音声と、認識文法作成部110によって作成された図6に示す認識文法によって定義される語彙群とを比較して、入力された音声を認識する。   The speech recognition unit 109 compares the input speech with the vocabulary group defined by the recognition grammar shown in FIG. 6 created by the recognition grammar creation unit 110 and recognizes the input speech.

具体的には、音声認識部109は、A/Dコンバータ105によって入力されたデジタル信号を、例えばLPCケプストラム(Linear Predictive Coding Cepstrum)を用いて、ユーザが発声した音声のデジタル信号の特徴量ベクトルを算出する。   Specifically, the voice recognition unit 109 uses the digital signal input by the A / D converter 105 as a feature vector of the digital signal of the voice uttered by the user using, for example, an LPC cepstrum (Linear Predictive Coding Cepstrum). calculate.

そして、音声認識部109は、認識文法作成部110によって作成された認識文法によって定義される語彙群の音響モデル列を算出する。   Then, the speech recognition unit 109 calculates an acoustic model sequence of a vocabulary group defined by the recognition grammar created by the recognition grammar creation unit 110.

音声認識部109は、算出した入力された音声の特徴量ベクトルと、算出した認識文法によって定義される語彙群の音響モデル列との間で、パターンマッチングを実行する。そして、音声認識部109は、入力された音声の特徴量ベクトルに最も近似する語彙群の音響モデル列を選択する。   The speech recognition unit 109 executes pattern matching between the calculated feature vector of the input speech and the acoustic model string of the vocabulary group defined by the calculated recognition grammar. Then, the speech recognition unit 109 selects an acoustic model sequence of a vocabulary group that most closely approximates the input speech feature vector.

次に、音声認識部109は、選択した音響モデル列の語彙群を入力された音声として認識して、音声認識結果をシステム制御部199に出力する。具体的には、音声認識結果は、認識された音声の読み方を示す読み記号列及び認識された音声の意味を示す意味構造体である。   Next, the speech recognition unit 109 recognizes the vocabulary group of the selected acoustic model sequence as the input speech, and outputs the speech recognition result to the system control unit 199. Specifically, the speech recognition result is a reading symbol string indicating how to read the recognized speech and a semantic structure indicating the meaning of the recognized speech.

音声認識部109が読み記号列を出力する処理について説明する。音声認識部109は、図6に示す認識文法を参照し、入力された音声と最も近似する語彙群を選択する際に、選択した語彙群の読み方を示す情報を取得する。そして、音声認識部109は、取得した読み方情報を読み記号列としてシステム制御部199に出力する。   A process in which the voice recognition unit 109 outputs a reading symbol string will be described. The speech recognition unit 109 refers to the recognition grammar shown in FIG. 6 and acquires information indicating how to read the selected vocabulary group when selecting the vocabulary group that most closely approximates the input speech. Then, the voice recognition unit 109 outputs the acquired reading information to the system control unit 199 as a reading symbol string.

音声認識部109が意味構造体を出力する処理について説明する。音声認識部109は、図6に示す認識文法を参照し、入力された音声と最も近似する語彙群から地点を示す語彙群を選択する際に、選択した地点を示す語彙群の識別子を取得する。そして、音声認識部109は、取得した地点を示す語彙群の識別子を意味構造体としてシステム制御部199に出力する。   A process in which the speech recognition unit 109 outputs a semantic structure will be described. The speech recognition unit 109 refers to the recognition grammar shown in FIG. 6 and acquires the identifier of the vocabulary group indicating the selected point when selecting the vocabulary group indicating the point from the vocabulary group closest to the input speech. . Then, the voice recognition unit 109 outputs the identifier of the vocabulary group indicating the acquired point to the system control unit 199 as a semantic structure.

システム制御部199は、入力された意味構造体に含まれる地点を示す語彙群の識別子を目的地として設定する。   The system control unit 199 sets an identifier of a vocabulary group indicating a point included in the input semantic structure as a destination.

システム制御部199は、入力された意味構造体に含まれる地点を示す語彙群の識別子をキー情報として経路探索部108に問い合わせることによって、目的地までの経路を取得できる。   The system control unit 199 can acquire the route to the destination by inquiring the route search unit 108 using the identifier of the vocabulary group indicating the point included in the input semantic structure as key information.

また、システム制御部199は、入力された意味構造体に含まれる地点を示す語彙群の識別子をキー情報として地点情報記憶部111に問い合わせることによって、目的地周辺の位置情報を取得できる。   Further, the system control unit 199 can acquire position information around the destination by inquiring the point information storage unit 111 using the identifier of the vocabulary group indicating the point included in the input semantic structure as key information.

そして、システム制御部199は、取得した目的地までの経路又は目的地周辺の位置情報をディスプレイ103に出力する。   Then, the system control unit 199 outputs the acquired route information to the destination or position information around the destination to the display 103.

図6は、本発明の第1実施形態の認識文法の説明図である。   FIG. 6 is an explanatory diagram of a recognition grammar according to the first embodiment of this invention.

認識文法作成部110は、SRGS及びSISR(Semantics Interpretation for Speech Recognition)に記載されたフォーマットに基づいて、認識文法を作成する。なお、矩形で囲った部分が認識文法作成部110によって動的に作成される部分である。   The recognition grammar creation unit 110 creates a recognition grammar based on the formats described in SRGS and SISR (Semantics Interpretation for Speech Recognition). Note that a portion enclosed by a rectangle is a portion that is dynamically created by the recognition grammar creation unit 110.

音声認識の対象となる変数($target)に、変数($again)が代入される(601)。   A variable ($ gain) is substituted into a variable ($ target) to be subjected to speech recognition (601).

変数($again)には、訪問済みであることを示す語彙の読み方、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録される変数($visited)、並びに「えいく」が予め登録されている(602)。なお、訪問済みであることを示す語彙の読み方として、例えば、「また」、「もういちど」又は「ふたたび」等が登録される。また、「えいく」は、省略可能である。   In the variable ($ again), the reading of the vocabulary indicating that it has been visited, the reading of the visited point, the variable for registering the identifier of the visited point ($ visited), and “Eiku” are registered in advance. (602). In addition, as a way of reading a vocabulary indicating that a visit has been made, for example, “also”, “another” or “again” is registered. “Eiku” can be omitted.

変数($visited)には、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録される(603)。変数($visited)のみが、訪問履歴リスト400に新たに地点が登録されるごとに更新され、変数($again)は、更新されない。   In the variable ($ visited), the reading of the visited point and the identifier of the visited point are registered (603). Only the variable ($ visited) is updated each time a new location is registered in the visit history list 400, and the variable ($ again) is not updated.

訪問履歴管理部112がある地点を訪問済みであると判定し、訪問履歴リスト400に新たにこの地点を登録した場合に、認識文法作成部110は、この地点の読み方及び識別子を新たに変数($visited)に登録する。   When the visit history management unit 112 determines that a point has been visited and newly registers this point in the visit history list 400, the recognition grammar creation unit 110 newly sets the reading and identifier of this point as a variable ( $ Visited).

変数($visited)に登録される訪問済みの地点の識別子は、地点情報リスト300の識別子301及び訪問履歴リスト400の識別子401に登録される識別子に対応している。   The identifier of the visited point registered in the variable ($ vised) corresponds to the identifier registered in the identifier 301 of the point information list 300 and the identifier 401 of the visit history list 400.

また、訪問済みの地点の読み方及び訪問済みの地点の識別子は、例えば、SRGS及びSISRに記載されたフォーマットに基づいて、変数($visited)に登録されるが、SRGS及びSISRに記載されたフォーマットに限定されるものではなく、音声認識に利用可能なフォーマットであればどのようなフォーマットでもよい。   In addition, how to read the visited point and the identifier of the visited point are registered in the variable ($ visited) based on the format described in SRGS and SISR, for example, but the format described in SRGS and SISR. The format is not limited to the above, and any format may be used as long as it can be used for speech recognition.

図6に示す認識文法では、変数($visited)には、訪問済みの地点として、読み方「しながわすいぞくかん」及びID「325644」、読み方「おだいば」及びID「3067382」、並びに読み方「みっどたうん」及びID「54054068」が登録されている。   In the recognition grammar shown in FIG. 6, the variable ($ visited) includes the reading “Shinagawa Suizokukan” and ID “325644”, the reading “Odaiba” and ID “30673382”, and the reading as the visited points. “Midota-un” and ID “54040568” are registered.

図6に示す認識文法によると、ユーザが、訪問済みであることを示す語彙及び訪問済みの地点として認識文法に登録された地点を示す語彙を発声した場合にのみ、目的地が設定される。   According to the recognition grammar shown in FIG. 6, the destination is set only when the user utters the vocabulary indicating that the user has visited and the vocabulary indicating the point registered in the recognition grammar as the visited point.

例えば、ユーザが「また品川水族館へ行く」と発声した場合には、音声認識部109は、「またしながわすいぞくかんえいく」を意味する読み記号列をシステム制御部199に出力し、品川水族館のID「325644」を含む意味構造体をシステム制御部199に出力する。   For example, when the user utters “Go to Shinagawa Aquarium” again, the speech recognition unit 109 outputs a reading symbol string meaning “Maybe Shinagawa” to the system control unit 199, and Shinagawa A semantic structure including the aquarium ID “325644” is output to the system control unit 199.

図7は、本発明の第1実施形態の英語を認識対象とする認識文法の説明図である。   FIG. 7 is an explanatory diagram of a recognition grammar that recognizes English as a recognition target according to the first embodiment of this invention.

英語を認識対象とする認識文法は、図6に示す日本語を認識対象とする認識文法と同じく、SRGS及びSISRに記載されたフォーマットに基づいて、認識文法作成部110によって作成され、矩形で囲った部分が動的に作成される部分である。   The recognition grammar for recognition in English is created by the recognition grammar creation unit 110 based on the format described in SRGS and SISR, and is enclosed in a rectangle, similar to the recognition grammar for recognition in Japanese shown in FIG. The part is a dynamically created part.

英語を認識対象とする認識文法について、図6に示す日本語を認識対象とする認識文法と異なる部分のみ説明し、図6に示す日本語を認識対象とする認識文法と同じ部分は説明を省略する。   Regarding the recognition grammar targeting English, only the parts different from the recognition grammar targeting Japanese shown in FIG. 6 will be described, and the description of the same part as the recognition grammar targeting Japanese shown in FIG. 6 will be omitted. To do.

変数($again)には、「Go to」、訪問済みの地点の表記が登録される変数($visited)、及び訪問済みであることを示す語彙の表記「again」が予め登録されている(702)。   In the variable ($ again), “Go to”, a variable ($ visited) in which the notation of the visited point is registered, and a vocabulary notation “again” indicating that it has been visited are registered in advance ( 702).

変数($visited)には、例えば、「Yankee Stadium」、「Golden Gate Bridge」、及び「Disney World」が登録されている(703)。   In the variable ($ visited), for example, “Yankee Stadium”, “Golden Gate Bridge”, and “Disney World” are registered (703).

図6に示す日本語を認識対象とする認識文法は、変数($visited)には、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録されるが、図7に示す英語を認識対象とする認識文法では、変数($visited)には、訪問済みの地点の表記(英語の場合、スペル)が登録される。   The recognition grammar shown in FIG. 6 recognizes Japanese as a recognition target, but the variable ($ vised) contains the reading of the visited point and the identifier of the visited point. In the recognition grammar, the notation (visited in English) of the visited point is registered in the variable ($ visited).

変数($visited)に訪問済みの地点の読み方が登録されていない場合、音声認識部109は、地点情報記憶部111に記憶された地点情報リスト300から、認識文法に登録されている訪問済み地点の表記と一致するエントリの読み方を取得する。そして、音声認識部109は、取得した読み方に基づいて、認識文法に登録された訪問済みの地点の音響モデル列を作成する。   If the reading of visited points is not registered in the variable ($ visited), the speech recognition unit 109 uses the visited points registered in the recognition grammar from the point information list 300 stored in the point information storage unit 111. Get the reading of the entry that matches the notation. Then, the voice recognition unit 109 creates an acoustic model sequence of the visited points registered in the recognition grammar based on the acquired reading.

音声認識部109は、入力された音声の特徴量ベクトルと、このようにして作成された訪問済みの地点の音響モデル列との間で、パターンマッチングを行う。   The speech recognition unit 109 performs pattern matching between the input speech feature vector and the acoustic model string of the visited points created in this way.

なお、英語を認識対象とする認識文法においても、変数($visited)に訪問済みの地点の読み方及び訪問済みの地点の識別子を登録できる。   In the recognition grammar that recognizes English, it is possible to register how to read a visited point and an identifier of a visited point in a variable ($ vised).

図8は、本発明の第1実施形態の認識文法作成部110によって実行される認識文法作成処理のフローチャートである。   FIG. 8 is a flowchart of recognition grammar creation processing executed by the recognition grammar creation unit 110 according to the first embodiment of this invention.

まず、認識文法作成部110は、認識文法のテンプレート部を読み込む(S801)。認識文法のテンプレート部は、図6に示す認識文法において矩形で囲った部分以外の部分であり、具体的には、変数($target)及び変数($again)である。   First, the recognition grammar creation unit 110 reads the template portion of the recognition grammar (S801). The template part of the recognition grammar is a part other than the part enclosed by the rectangle in the recognition grammar shown in FIG. 6, and specifically, a variable ($ target) and a variable ($ again).

次に、認識文法作成部110は、訪問履歴記憶部113に記憶された訪問履歴リスト400を読み込む(S802)。次に、認識文法作成部110は、訪問履歴リスト400に登録されたすべての地点の識別子301及び読み303を、認識文法の変数($visited)に登録する(S803)。   Next, the recognition grammar creation unit 110 reads the visit history list 400 stored in the visit history storage unit 113 (S802). Next, the recognition grammar creation unit 110 registers the identifiers 301 and the readings 303 of all points registered in the visit history list 400 in the recognition grammar variable ($ vised) (S803).

なお、S803の処理では、変数($visited)に訪問済みの地点の識別子及び訪問済みの読み方が登録される場合について説明したが、変数($visited)に訪問済みの地点の表記が登録される場合、認識文法作成部110は、訪問履歴リスト400に登録されたすべての地点の施設名302を、認識文法の変数($visited)に登録すればよい。   In the process of S803, the case where the visited point identifier and the visited reading are registered in the variable ($ visited) has been described. However, the notation of the visited point is registered in the variable ($ vised). In this case, the recognition grammar creation unit 110 may register the facility names 302 of all the points registered in the visit history list 400 in the recognition grammar variable ($ vised).

また、S803の処理では、訪問履歴リスト400には地点が登録されていない場合もあり、認識文法作成部110は、S802の処理で訪問履歴リスト400を読み込んだ後、読み込んだ認識文法に一つ以上の地点が登録されているか否かを判定する必要がある。また、S801の処理とS802の処理との実行順序は、入れ替わってもよい。   In the process of S803, there may be a case where no point is registered in the visit history list 400, and the recognition grammar creation unit 110 reads one of the read recognition grammars after reading the visit history list 400 in the process of S802. It is necessary to determine whether or not the above points are registered. Moreover, the execution order of the process of S801 and the process of S802 may be switched.

第1実施形態によると、ユーザが音声を目的地入力装置100に入力することによって、目的地を設定する場合、訪問済みであることを意味する語彙が入力されなければ、目的地が設定されない。そして、訪問済みであることを意味する語彙が入力された場合、認識対象となる地点は訪問済みの地点のみであるので、認識対象となる地点がすべての地点場合よりも、目的地入力装置100の誤認識を防止できる。   According to the first embodiment, when the user inputs a voice to the destination input device 100 to set the destination, the destination is not set unless a vocabulary meaning that the user has visited is input. And when the vocabulary meaning visited has been input, since the point to be recognized is only the point that has been visited, the destination input device 100 is more than the case where the points to be recognized are all points. Can be prevented from being misrecognized.

(第2実施形態)
第2実施形態を、図9〜図13を用いて説明する。
(Second Embodiment)
A second embodiment will be described with reference to FIGS.

第1実施形態は目的地設定対象が訪問済みの地点のみであったが、第2実施形態は目的地設定対象が訪問済みの地点以外の地点(つまり、未訪問の地点)も含む。   In the first embodiment, the destination setting target is only visited points, but the second embodiment includes points other than the point where the destination setting target has been visited (that is, unvisited points).

図9は、本発明の第2実施形態の認識文法作成部110を中心とした各種情報の入出力の説明図である。   FIG. 9 is an explanatory diagram of input / output of various information centered on the recognition grammar creation unit 110 according to the second embodiment of this invention.

なお、第1実施形態と同じ構成については説明を省略し、第1実施形態と異なる構成についてのみ説明する。   In addition, description is abbreviate | omitted about the same structure as 1st Embodiment, and only a structure different from 1st Embodiment is demonstrated.

第2実施形態は、認識文法作成部110が地点情報記憶部111に記憶された地点情報リスト300を参照して、認識文法を作成する点で、第1実施形態と相違する。   The second embodiment is different from the first embodiment in that the recognition grammar creation unit 110 creates a recognition grammar with reference to the spot information list 300 stored in the spot information storage unit 111.

具体的には、認識文法作成部110は、図10に示すように、訪問済みの地点のみを含む訪問済み目的地設定対象、及び地点情報リスト300に登録されたすべての地点から訪問済みの地点を削除した未訪問目的地設定対象を含む認識文法を作成する。   Specifically, as shown in FIG. 10, the recognition grammar creation unit 110 includes visited destinations including only visited points and points visited from all points registered in the point information list 300. Create a recognition grammar that includes an unvisited destination setting target that has been deleted.

図10は、本発明の第2実施形態の認識文法の説明図である。   FIG. 10 is an explanatory diagram of a recognition grammar according to the second embodiment of this invention.

矩形で囲った部分が認識文法作成部110によって動的に作成される部分である。   A portion enclosed by a rectangle is a portion that is dynamically created by the recognition grammar creation unit 110.

音声認識の対象となる変数($target)に、訪問済み目的地設定対象を示す変数($again)又は未訪問目的地設定対象を示す変数($first)が代入される(1001)。   A variable ($ again) indicating a visited destination setting target or a variable ($ first) indicating an unvisited destination setting target is substituted into a variable ($ target) to be subjected to speech recognition (1001).

変数($again)には、訪問済みであることを示す語彙の読み方、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録される変数($visited)(1003)、並びに「えいく」が予め登録されている(1002)。変数($again)及び変数($visited)は、第1実施形態の認識文法(図6)と同じあるので、説明を省略する。   The variable ($ again) is a variable ($ visited) (1003) in which the vocabulary reading indicating that the user has visited, the reading of the visited point, and the identifier of the visited point are registered. Is registered in advance (1002). Since the variable ($ again) and the variable ($ visited) are the same as the recognition grammar (FIG. 6) of the first embodiment, description thereof is omitted.

変数($first)には、未訪問であることを示す語彙の読み方、未訪問の地点の読み方が登録される変数($novisited)、及び「えいく」が予め登録されている(1004)。なお、未訪問であることを示す語彙の読み方として、例えば、「はじめて」が登録される。また、「えいく」は、省略可能である。   In the variable ($ first), a vocabulary reading indicating unvisited, a variable ($ novisited) in which the reading of an unvisited point is registered, and “eiku” are registered in advance (1004). For example, “for the first time” is registered as a way of reading a vocabulary indicating that the user has not visited. “Eiku” can be omitted.

変数($novisited)には、未訪問の地点の読み方が登録される(1005)。   In the variable ($ novised), how to read an unvisited point is registered (1005).

訪問履歴管理部112が、ある地点を訪問済みであると判定し、訪問履歴リスト400に新たに地点を登録した場合に、認識文法作成部110は、地点情報リスト300から訪問履歴リスト400に登録された地点を削除し、訪問履歴リスト400に登録された地点が削除された地点情報リスト300に登録された地点の読み方を変数($novisited)に新たに登録する。   When the visit history management unit 112 determines that a point has been visited and registers a new point in the visit history list 400, the recognition grammar creation unit 110 registers in the visit history list 400 from the point information list 300. The registered point is deleted, and the reading of the point registered in the point information list 300 from which the point registered in the visit history list 400 has been deleted is newly registered in a variable ($ novised).

なお、図10には示していないが、変数($novisited)には、変数($visited)のように、未訪問の地点の識別子も登録されてもよい。なお、一般的には、変数($visited)に登録される未訪問の地点の数は、変数($novisited)に登録される訪問済みの地点の数よりも少ない。   Although not shown in FIG. 10, an identifier of an unvisited point may be registered in the variable ($ novised) as in the variable ($ visited). Note that in general, the number of unvisited points registered in the variable ($ visited) is smaller than the number of visited points registered in the variable ($ novised).

このようにすることによって、音声認識部109は、ユーザが訪問済みであることを示す語彙を発声したと認識した場合には、未訪問の地点よりも登録される数が少ない訪問済みの地点を用いて、ユーザが発声した地点名を認識する。これによって、目的地入力装置は誤認識を防止でき、ユーザが認識モードを切り替える必要もない。   In this way, when the speech recognition unit 109 recognizes that the user has spoken a vocabulary indicating that the user has visited, the speech recognition unit 109 selects visited sites that are registered in fewer numbers than unvisited sites. Used to recognize the name of the point uttered by the user. Thereby, the destination input device can prevent erroneous recognition, and the user does not need to switch the recognition mode.

図11は、本発明の第2実施形態の認識文法作成部110によって実行される認識文法作成処理のフローチャートである。   FIG. 11 is a flowchart of a recognition grammar creation process executed by the recognition grammar creation unit 110 according to the second embodiment of this invention.

まず、認識文法作成部110は、認識文法のテンプレート部を読み込む(S1101)。認識文法のテンプレート部は、図10に示す認識文法において矩形で囲った部分以外の部分であり、具体的には、変数($target)、変数($again)、及び変数($first)である。   First, the recognition grammar creation unit 110 reads the template portion of the recognition grammar (S1101). The template part of the recognition grammar is a part other than the part surrounded by a rectangle in the recognition grammar shown in FIG. 10, and specifically, a variable ($ target), a variable ($ again), and a variable ($ first). .

次に、認識文法作成部110は、訪問履歴記憶部113に記憶された訪問履歴リスト400を読み込む(S1102)。次に、認識文法作成部110は、地点情報記憶部111に記憶された地点情報リスト300を読み込む(S1103)。   Next, the recognition grammar creation unit 110 reads the visit history list 400 stored in the visit history storage unit 113 (S1102). Next, the recognition grammar creation unit 110 reads the spot information list 300 stored in the spot information storage unit 111 (S1103).

そして、認識文法作成部110は、S1103の処理で読み込んだ地点情報リスト300に登録された地点から、S1102の処理で読み込んだ訪問履歴リスト400に登録された地点を削除する(S1104)。   Then, the recognition grammar creation unit 110 deletes the spot registered in the visit history list 400 read in the process of S1102 from the spots registered in the spot information list 300 read in the process of S1103 (S1104).

そして、認識文法作成部110は、訪問済みの地点を削除した地点情報リスト300に登録された地点の読み303を、認識文法の変数($novisited)に登録する(S1105)。   Then, the recognition grammar creation unit 110 registers the point reading 303 registered in the point information list 300 from which the visited points have been deleted, in the recognition grammar variable ($ novised) (S1105).

そして、認識文法作成部110は、S1102の処理で読み込んだ訪問履歴リスト400に登録されたすべての地点の識別子301及び読み303を、認識文法の変数($visited)に登録する(S1106)。   Then, the recognition grammar creation unit 110 registers the identifier 301 and the reading 303 of all points registered in the visit history list 400 read in the processing of S1102 in the recognition grammar variable ($ vised) (S1106).

なお、認識文法作成部110は、S1103の処理を実行する前に、S1106の処理を実行してもよい。   Note that the recognition grammar creation unit 110 may execute the process of S1106 before executing the process of S1103.

また、訪問履歴リスト400には地点が登録されていない場合もあり、認識文法作成部110は、S1102の処理で訪問履歴リスト400を読み込んだ後、読み込んだ認識文法に一つ以上の地点が登録されているか否かを判定する必要がある。   In addition, there are cases where points are not registered in the visit history list 400, and the recognition grammar creation unit 110 reads the visit history list 400 in the process of S1102, and then registers one or more points in the read recognition grammar. It is necessary to determine whether or not

(第2実施形態の第1変形例)
次に、第2実施形態の第1変形例を図12を用いて説明する。
(First Modification of Second Embodiment)
Next, a first modification of the second embodiment will be described with reference to FIG.

第2実施形態では、訪問済み目的地設定対象以外の目的地の設定対象として、未訪問の地点を目的地の設定対象とした。そして、第2実施形態では、ユーザは、未訪問の地点を目的地として設定する場合には、未訪問であることを示す語彙(「はじめて」)を、未訪問である地点名に付加して発声しなければならない。このため、ユーザは、訪問済みの地点と未訪問の地点とを明確に記憶していなければ、目的地を設定できない。   In the second embodiment, an unvisited point is set as a destination setting target as a destination setting target other than the visited destination setting target. In the second embodiment, when the user sets an unvisited point as the destination, the user adds a vocabulary (“first time”) indicating that the user has not visited to the name of the unvisited point. I have to speak. For this reason, the user cannot set the destination unless the visited point and the unvisited point are clearly stored.

第2実施形態の第1変形例では、訪問済みの目的地設定対象以外の目的地設定対象として、訪問済みの地点及び未訪問の地点を含むすべての地点を目的地の設定対象とする。   In the first modification of the second embodiment, all the points including the visited points and the unvisited points are set as the destination setting targets as the destination setting targets other than the visited destination setting targets.

図12は、本発明の第2実施形態の第1変形例の認識文法の説明図である。   FIG. 12 is an explanatory diagram of a recognition grammar according to the first modification of the second embodiment of this invention.

矩形で囲った部分が認識文法作成部110によって動的に作成される部分である。   A portion enclosed by a rectangle is a portion that is dynamically created by the recognition grammar creation unit 110.

音声認識の対象となる変数($target)に、訪問済み目的地設定対象を示す変数($again)又は地点情報リスト300に登録されたすべての地点を目的地設定対象とする変数($all)が代入される(1201)。   A variable ($ again) indicating a visited destination setting target or a variable ($ all) that sets all points registered in the point information list 300 as a destination setting target variable ($ target) as a target for speech recognition ($ target) Is substituted (1201).

変数($again)には、訪問済みであることを示す語彙の読み方、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録される変数($visited)(1203)、並びに「えいく」が予め登録されている(1202)。変数($again)及び変数($visited)は、第1実施形態の認識文法(図6)と同じあるので、説明を省略する。   The variable ($ again) is a variable ($ visited) (1203) in which the reading of the vocabulary indicating that it has been visited, the reading of the visited point, and the identifier of the visited point are registered, and “eiku” Is registered in advance (1202). Since the variable ($ again) and the variable ($ visited) are the same as the recognition grammar (FIG. 6) of the first embodiment, description thereof is omitted.

変数($all)には、地点情報リスト300に登録されたすべての地点の読み方が登録される変数($allPOI)、及び「えいく」が予め登録されている(1204)。   In the variable ($ all), a variable ($ allPOI) in which how to read all the points registered in the point information list 300 and “Eiku” are registered in advance (1204).

変数($allPOI)には、地点情報リスト300に登録されたすべての地点の読み方が登録される(1205)。このため、変数($allPOI)は、訪問履歴リスト400に新たに地点が登録されても、変化する必要がないため、認識文法作成部110によって、動的に更新されない。   In the variable ($ allPOI), how to read all the points registered in the point information list 300 is registered (1205). For this reason, the variable ($ allPOI) does not need to be changed even if a new location is registered in the visit history list 400, and therefore is not dynamically updated by the recognition grammar creation unit 110.

このようにすることによって、音声認識部109は、ユーザが訪問済みであることを示す語彙を発声したと認識した場合には、未訪問の地点よりも登録される数が少ない訪問済みの地点を用いて、ユーザが発声した地点名を認識する。これによって、目的地入力装置は誤認識を防止でき、ユーザが認識モードを切り替える必要もない。   In this way, when the speech recognition unit 109 recognizes that the user has spoken a vocabulary indicating that the user has visited, the speech recognition unit 109 selects visited sites that are registered in fewer numbers than unvisited sites. Used to recognize the name of the point uttered by the user. Thereby, the destination input device can prevent erroneous recognition, and the user does not need to switch the recognition mode.

また、第2実施形態の第1変形例は、未訪問の地点を目的地として設定する場合には、ユーザは、未訪問であることを示す語彙を、未訪問の地点名に付加せずに発声しても、音声認識部は、発声された地点を認識できる。しかし、この場合、音声認識部109は、すべての地点の音響モデル列を用いて、発声された音声を認識するので、第2実施形態よりも、誤認識する可能性が高くなる。   In the first modification of the second embodiment, when an unvisited point is set as a destination, the user does not add a vocabulary indicating unvisited to the name of the unvisited point. Even if the voice is spoken, the voice recognition unit can recognize the voiced point. However, in this case, since the voice recognition unit 109 recognizes the uttered voice using the acoustic model sequence at all points, there is a higher possibility of erroneous recognition than in the second embodiment.

(第2実施形態の第2変形例)
次に、第2実施形態の第2変形例を図13を用いて説明する。
(Second Modification of Second Embodiment)
Next, a second modification of the second embodiment will be described with reference to FIG.

第2実施形態の第2変形例では、未訪問であることを示す語彙が発声された場合には、未訪問の地点を目的地設定対象に用い、訪問済みであることを示す語彙が発声された場合には、訪問済みの地点を目的地設定対象に用い、未訪問又は訪問済みであることを示す語彙が発声されなければ、地点情報リスト300に登録されたすべての地点を目的地設定対象に用いる。   In the second modification of the second embodiment, when a vocabulary indicating unvisited is uttered, a vocabulary indicating visited is used by using an unvisited point as a destination setting target. If a visited point is used as a destination setting target and a vocabulary indicating that the site has not been visited or visited is not spoken, all the points registered in the point information list 300 are set as destination setting targets. Used for.

図13は、本発明の第2実施形態の第2変形例の認識文法の説明図である。   FIG. 13 is an explanatory diagram of a recognition grammar according to the second modification of the second embodiment of this invention.

矩形で囲った部分が認識文法作成部110によって動的に作成される部分である。   A portion enclosed by a rectangle is a portion that is dynamically created by the recognition grammar creation unit 110.

音声認識の対象となる変数($target)に、訪問済み目的地設定対象を示す変数($again)、未訪問目的地設定対象を示す変数($first)又は全て地点を目的地設定対象とする変数($all)が代入される(1301)。   A variable ($ again) indicating a visited destination setting target, a variable ($ first) indicating an unvisited destination setting target, or all points are set as destination setting targets in a variable ($ target) to be subjected to speech recognition. A variable ($ all) is substituted (1301).

なお、変数($again)は、図6で詳細を説明し、変数($first)は、図10で詳細を説明し、変数($all)は、図12で詳細を説明したので、説明を省略する。   The variable ($ gain) is described in detail in FIG. 6, the variable ($ first) is described in detail in FIG. 10, and the variable ($ all) is described in detail in FIG. Omitted.

(第3実施形態)
次に、第3実施形態を図14〜図16を用いて説明する。
(Third embodiment)
Next, a third embodiment will be described with reference to FIGS.

第3実施形態は、訪問済みの地点を、訪問した時期毎に分類し、認識対象を制限することによって、音声認識部109の誤認識を防止できる。   In the third embodiment, erroneous recognition of the voice recognition unit 109 can be prevented by classifying visited points for each time of visiting and limiting recognition targets.

第3実施形態の認識文法作成部110を中心とした各種情報の入出力は、第2実施形態の図9と同じなので説明を省略する。   The input / output of various information centered on the recognition grammar creation unit 110 of the third embodiment is the same as that of FIG.

第3実施形態の認識文法作成部110は、訪問履歴記憶部113に記憶された訪問履歴リスト400の最終訪問日402を参照し、訪問済みの地点を訪問時期毎に分類し、訪問時期毎に認識対象の地点を作成する。   The recognition grammar creation unit 110 of the third embodiment refers to the last visit date 402 of the visit history list 400 stored in the visit history storage unit 113, classifies the visited points for each visit time, and for each visit time. Create a point to be recognized.

図14は、本発明の第3実施形態の認識文法の説明図である。   FIG. 14 is an explanatory diagram of a recognition grammar according to the third embodiment of this invention.

矩形で囲った部分が認識文法作成部110によって動的に作成される部分である。   A portion enclosed by a rectangle is a portion that is dynamically created by the recognition grammar creation unit 110.

音声認識の対象となる変数($target)に、訪問済み目的地設定対象を示す変数($again)、未訪問目的地設定対象を示す変数($first)、先月訪問した地点の目的地設定対象を示す変数($lastmonth)、又は去年訪問した地点の目的地設定対象を示す変数($lastyear)が代入される(1401)。   A variable ($ target) indicating a visited destination setting target, a variable indicating an unvisited destination setting target ($ first), and a destination setting target of a point visited last month ($ Lastmonth) or a variable ($ lastyear) indicating a destination setting target at a point visited last year is substituted (1401).

変数($again)には、訪問済みであることを示す語彙の読み方、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録される変数($visited)(1003)、並びに「えいく」が予め登録されている(1402)。変数($again)及び変数($visited)(1403)は、第1実施形態の認識文法(図6)と同じあるので、説明を省略する。   In the variable ($ again), a variable ($ vised) (1003) in which a vocabulary reading indicating visited, a reading of a visited point, and an identifier of a visited point are registered, and “eiku” are registered. Is registered in advance (1402). Since the variable ($ again) and the variable ($ vised) (1403) are the same as the recognition grammar (FIG. 6) of the first embodiment, description thereof is omitted.

変数($first)には、未訪問であることを示す語彙の読み方、未訪問の地点の読み方が登録される変数($novisited)、及び「えいく」が予め登録されている(1404)。なお、未訪問であることを示す語彙の読み方として、例えば、「はじめて」が登録される。また、「えいく」は、省略可能である。変数($novisited)(1406)は、第2実施形態の認識文法(図10)で詳細を説明したので、説明を省略する。   In the variable ($ first), a vocabulary reading indicating unvisited, a variable ($ novisited) in which the reading of an unvisited point is registered, and “eiku” are registered in advance (1404). For example, “for the first time” is registered as a way of reading a vocabulary indicating that the user has not visited. “Eiku” can be omitted. Since the variable ($ novisited) (1406) has been described in detail in the recognition grammar (FIG. 10) of the second embodiment, a description thereof will be omitted.

変数($lastmonth)には、先月を示す語彙の読み方が登録された変数($lastmonth_yomi)、「いった」、先月訪問した地点を示す変数($visited_lastmonth)、及び「えいく」が登録される(1406)。   In the variable ($ lastmonth), a variable ($ lastmonth_yomi) in which the vocabulary indicating the last month is registered, “e”, a variable indicating the point visited last month ($ visited_lastmonth), and “eiku” are registered. (1406).

変数($lastmonth_yomi)には、例えば、「せんげつ」及び「いっかげつまえ」等が登録される(1407)。   In the variable ($ lastmonth_yomi), for example, “sengetsu” and “Ikagetsumae” are registered (1407).

変数($visited_lastmonth)には、先月訪問した地点の読み方及び識別子が登録される(1408)。   In the variable ($ visited_lastmonth), the reading and identifier of the point visited last month are registered (1408).

具体的には、認識文法作成部110は、訪問履歴リスト400の最終訪問日402に登録された年月日を参照し、現在の月よりも1か月前の月に属するエントリを選択する。そして、認識文法作成部110は、選択されたエントリの識別子401に登録された識別子及び読み404に登録された読み方を取得する。そして、認識文法作成部110は、取得された読み方及び識別子を、変数($visited_lastmonth)に登録する。   Specifically, the recognition grammar creation unit 110 refers to the date registered in the last visit date 402 of the visit history list 400 and selects an entry belonging to a month one month before the current month. Then, the recognition grammar creation unit 110 acquires the identifier registered in the identifier 401 of the selected entry and the reading registered in the reading 404. Then, the recognition grammar creation unit 110 registers the acquired reading method and identifier in a variable ($ visited_lastmonth).

変数($lastyear)には、去年を示す語彙の読み方が登録された変数($lastyear_yomi)、「いった」、去年訪問した地点を示す変数($visited_lastyear)、及び「えいく」が登録される(1409)。   In the variable ($ lastyear), a variable ($ lastyear_yomi) in which the reading of the vocabulary indicating last year is registered, “Ita”, a variable ($ visited_lastear) indicating the place visited last year, and “eiku” are registered. (1409).

変数($lastyear_yomi)には、例えば、「きょねん」、「さくねん」、及び「いちねんまえ」が登録される(1410)。   In the variable ($ lastyear_omi), for example, “Kyonen”, “Sakunen”, and “Ichinenmae” are registered (1410).

変数($visited_lastyear)には、去年訪問した地点の読み方及び識別子が登録される(1411)。   In the variable ($ visited_lastyear), the reading and identifier of the point visited last year are registered (1411).

具体的には、認識文法作成部110は、変数($visited_lastmonth)に地点の読み方及び識別子を登録する処理と同様に、訪問履歴リスト400の最終訪問日402に登録された年月日を参照し、現在の年よりも1年前の年に属するエントリを選択する。そして、認識文法作成部110は、選択されたエントリの識別子401に登録された識別子及び読み404に登録された読み方を取得する。そして、認識文法作成部110は、取得された読み方及び識別子を、変数($visited_lastyear)に登録する。   Specifically, the recognition grammar creation unit 110 refers to the date registered in the last visit date 402 of the visit history list 400 in the same manner as the process of registering the reading of the point and the identifier in the variable ($ visited_lastmonth). , An entry belonging to a year one year before the current year is selected. Then, the recognition grammar creation unit 110 acquires the identifier registered in the identifier 401 of the selected entry and the reading registered in the reading 404. Then, the recognition grammar creation unit 110 registers the acquired reading method and identifier in a variable ($ visited_lastyear).

なお、図14に示す認識文法では、訪問時期が先月及び去年であるが、訪問時期は2年前、2か月前、3週間前、及びおととい等であってもよい。   In the recognition grammar shown in FIG. 14, the visit time is last month and last year, but the visit time may be two years ago, two months ago, three weeks ago, and ototo.

図15は、本発明の第3実施形態の認識文法作成部110によって実行される認識文法作成処理のフローチャートである。   FIG. 15 is a flowchart of a recognition grammar creation process executed by the recognition grammar creation unit 110 according to the third embodiment of this invention.

なお、図11に示す本発明の第2実施形態の認識文法作成部110によって実行される認識文法作成処理と同じ処理は、図11と同じ符号を付与し、説明を省略する。   Note that the same processing as the recognition grammar creation processing executed by the recognition grammar creation unit 110 according to the second embodiment of the present invention shown in FIG.

S1106の処理の実行後、認識文法作成部110は、訪問履歴リスト400の最終訪問日402に登録された年月日を参照し、各訪問時期に属するエントリを選択する。そして、認識文法作成部110は、選択されたエントリの識別子401に登録された識別子及び読み404に登録された読み方を取得する。そして、認識文法作成部110は、取得された読み方及び識別子を、各訪問時期に対応する変数(図14において、変数($visited_lastmonth)及び変数($visited_lastyear))に登録する(S1501)。   After executing the processing of S1106, the recognition grammar creation unit 110 refers to the date registered in the last visit date 402 of the visit history list 400 and selects an entry belonging to each visit time. Then, the recognition grammar creation unit 110 acquires the identifier registered in the identifier 401 of the selected entry and the reading registered in the reading 404. Then, the recognition grammar creation unit 110 registers the acquired reading and identifier in variables (variable ($ visited_lastmonth and variable ($ visited_lastear) in FIG. 14)) corresponding to each visit time (S1501).

また、本実施形態では、各訪問時期(先月及び去年)が認識文法に予め登録されていたが、図16に示す訪問時期作成テーブル1600を用いて各訪問時期が自動的に登録されるようにしてもよい。   In this embodiment, each visit time (last month and last year) is registered in the recognition grammar in advance, but each visit time is automatically registered using the visit time creation table 1600 shown in FIG. May be.

図16は、本発明の第3実施形態の訪問時期作成テーブル1600の説明図である。   FIG. 16 is an explanatory diagram of a visit time creation table 1600 according to the third embodiment of this invention.

訪問時期作成テーブル1600は、訪問時期名1601、判定ロジック1602、及び読み1603を含む。   The visit time creation table 1600 includes a visit time name 1601, a determination logic 1602, and a reading 1603.

訪問時期名1601には、訪問時期を示す分類するための変数が登録される。判定ロジック1602には、訪問履歴リスト400に登録された地点を各訪問時期に分類するための判定処理(図15に示すS1501の処理)を実行するプログラムの名前が登録される。   In the visit time name 1601, a variable for classifying the visit time is registered. Registered in the determination logic 1602 is the name of a program that executes a determination process (the process of S1501 shown in FIG. 15) for classifying the points registered in the visit history list 400 into visit times.

具体的には、判定ロジック1602には、JavaScriptの関数名並びにJava(登録商標)のクラス名及びメソッド名が登録される。   Specifically, a JavaScript function name, a Java (registered trademark) class name, and a method name are registered in the determination logic 1602.

認識文法作成部110は、判定ロジック1602に登録されたプログラムの名前から、判定処理を実行するプログラムを呼び出す。そして、認識文法作成部110は、読み出したプログラムに、訪問履歴リスト400に登録されたすべての地点に対して、判定処理を実行させ、判定処理の戻り値が真か否かを判定する。認識文法作成部110は、判定処理の戻り値が真であると判定した場合、当該地点は訪問時期に対応する地点であると判定する。一方、認識文法作成部110は、判定処理の戻り値が偽であると判定した場合、当該地点は訪問時期に対応しない地点であると判定する。   The recognition grammar creation unit 110 calls a program that executes the determination process from the name of the program registered in the determination logic 1602. Then, the recognition grammar creation unit 110 causes the read program to execute the determination process for all points registered in the visit history list 400, and determines whether the return value of the determination process is true. When the recognition grammar creation unit 110 determines that the return value of the determination process is true, the recognition grammar creation unit 110 determines that the point is a point corresponding to the visit time. On the other hand, when the recognition grammar creation unit 110 determines that the return value of the determination process is false, the recognition grammar creation unit 110 determines that the point is not a point corresponding to the visit time.

読み1603には、訪問時期に対応する時期を示す語彙の読み方が登録される。   In the reading 1603, a vocabulary reading indicating the time corresponding to the visit time is registered.

次に、認識文法作成部110が訪問時期作成テーブル1600を用いて認識文法を作成する処理について図14を用いて説明する。なお、訪問時期名1601に登録された変数を、変数($timing)とする。   Next, a process in which the recognition grammar creation unit 110 creates a recognition grammar using the visit time creation table 1600 will be described with reference to FIG. Note that the variable registered in the visit time name 1601 is a variable ($ timing).

まず、変数($timing)は、変数($target)に代入される(1401)。   First, the variable ($ timing) is assigned to the variable ($ target) (1401).

変数($timing)には、訪問時期に対応する時期を示す語彙の読み方が登録される変数($timing_yomi)、「いった」、訪問時期に対応する地点の読み方及び識別子が登録される変数($visited_timing)、及び「えいく」が登録される(1406及び1409)。   In the variable ($ timing), a variable ($ timing_yomi) in which a vocabulary reading indicating a time corresponding to the visit time is registered, a variable in which “to”, a reading of a point corresponding to the visit time and an identifier are registered ( $ Visited_timing) and “eiku” are registered (1406 and 1409).

変数($timing_yomi)には、訪問時期作成テーブル1600の読み1603に登録される読み方が登録される。   In the variable ($ timing_yomi), a reading method registered in the reading 1603 of the visit time creation table 1600 is registered.

変数($visited_timing)には、訪問時期作成テーブル1600の判定ロジック1602に登録されたプログラムの名前に基づいて、呼び出されたプログラムが判定処理を実行し、認識文法作成部110によって訪問時期に対応すると判定された地点の読み方及び識別子が登録される。   In the variable ($ visited_timing), the called program executes determination processing based on the name of the program registered in the determination logic 1602 of the visit time creation table 1600, and the recognition grammar creation unit 110 corresponds to the visit time. The reading and identifier of the determined point are registered.

(第4実施形態)
次に、本発明の第4実施形態を図17を用いて説明する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described with reference to FIG.

第4実施形態の認識文法作成部110を中心とした各種情報の入出力は、第1実施形態の図5と同じなので説明を省略する。   The input / output of various types of information centering on the recognition grammar creation unit 110 of the fourth embodiment is the same as in FIG.

第4実施形態の認識文法作成部110は、地点情報リスト300のnearby305にtrueが登録されている地点が訪問済みの地点であっても、当該nearby305にtrueが登録されている地点を、訪問済みである地点の読み方及び識別子が登録される変数($visited)に登録しない。   The recognition grammar creation unit 110 of the fourth embodiment has visited a point where true is registered in the near 305 even if the point where the true is registered in the near 305 of the point information list 300 is a visited point. Is not registered in the variable ($ vised) in which the reading and identifier of the point is registered.

nearby305には、同じサービスを提供する地点であれば地点の名称は問わない地点に、trueが登録される。同じサービスを提供する地点であれば地点の名称は問わない地点とは、具体的には、コンビニエンスストア、銀行、ガソリンスタンド及び駐車場等がある。   In near 305, true is registered at a point where the name of the point does not matter as long as it is a point providing the same service. The point where the name of the point is not limited as long as it provides the same service, specifically, includes a convenience store, a bank, a gas station, and a parking lot.

例えば、コンビニエンスストアである「コンビニ相模大野駅前店」という地点が訪問履歴リスト400に登録された場合であっても、ユーザは、現在位置から近くのコンビニエンスストアであればどこでもよいので、「またコンビニ相模大野駅前店へ行く」のような語彙を発声する可能性は低い。   For example, even if a point of convenience store “Convenience store Sagami-Oono station square store” is registered in the visit history list 400, the user may be any convenience store nearby from the current position. It is unlikely that you will speak a vocabulary such as “Go to Sagami-Ono Station”.

本実施形形態では、同じサービスを提供する地点であれば地点の名称は問わない地点が、訪問済みである地点の読み方及び識別子が登録される変数($visited)に登録されない。このため、ユーザが発声する可能性の低い語彙を、認識対象から外すことができ、音声認識部109の誤認識を防止できる。   In the present embodiment, a point that does not matter the name of the point as long as it provides the same service is not registered in the variable ($ vised) in which the reading and identifier of the visited point are registered. For this reason, vocabulary that is unlikely to be spoken by the user can be excluded from recognition targets, and erroneous recognition of the speech recognition unit 109 can be prevented.

図17は、本発明の第4実施形態の認識文法作成部110によって実行される認識文法作成処理のフローチャートである。   FIG. 17 is a flowchart of a recognition grammar creation process executed by the recognition grammar creation unit 110 according to the fourth embodiment of this invention.

第4実施形態の認識文法作成処理のうち、第1実施形態の認識文法作成処理(図8)と同じ処理については、同じ番号を付与し、説明を省略する。   Of the recognition grammar creation processing of the fourth embodiment, the same processing as that of the recognition grammar creation processing (FIG. 8) of the first embodiment is assigned the same number, and description thereof is omitted.

S802の処理の実行後、認識文法作成部110は、S802の処理で取得された訪問履歴リスト400に登録される地点のうち、nearby305にfalseが登録されている地点の読み方及び識別子を、図6に示す認識文法の変数($visited)に登録する(S1701)。   After executing the processing of S802, the recognition grammar creation unit 110 reads the reading and identifier of the location where false is registered in the near 305 among the locations registered in the visit history list 400 acquired in the processing of S802. (S1701).

具体的には、認識文法作成部110は、S802の処理で取得された訪問履歴リスト400の識別子401に登録されるすべての識別子を取得する。そして、認識文法作成部110は、地点情報リスト300を参照し、地点情報リスト300の識別子301に登録される識別子が、取得された訪問履歴リスト400の識別子401に登録される識別子と一致するエントリを取得する。   Specifically, the recognition grammar creation unit 110 acquires all identifiers registered in the identifier 401 of the visit history list 400 acquired in the process of S802. Then, the recognition grammar creation unit 110 refers to the spot information list 300, and the identifier registered in the identifier 301 of the spot information list 300 matches the identifier registered in the identifier 401 of the acquired visit history list 400. To get.

そして、認識文法作成部110は、取得されたエントリを参照し、nearby305にfalseが登録されているか否かを判定する。次に、認識文法作成部110は、nearby305にfalseが登録されているエントリの識別子301に登録された識別子及び読み303に登録された読み方を図6に示す認識文法の変数($visited)に登録する。   Then, the recognition grammar creation unit 110 refers to the acquired entry and determines whether or not “false” is registered in the near 305. Next, the recognition grammar creation unit 110 registers the identifier registered in the identifier 301 of the entry in which false is registered in the near 305 and the reading registered in the reading 303 in the variable ($ vised) of the recognition grammar illustrated in FIG. To do.

これによって、認識文法作成部110は、訪問済みの地点のうち、nearby305にfalseが登録された地点の読み方及び識別子を、変数($visited)に登録できる。つまり、nearby305にtrueが登録された地点(同じサービスを提供する地点であれば地点の名称は問わない地点)を、訪問済みの地点の目的地設定対象から削除できる。   As a result, the recognition grammar creation unit 110 can register, in the variable ($ vised), the reading and identifier of the point where false is registered in the near 305 among the visited points. That is, the point where true is registered in near 305 (the point where the name of the point does not matter if it is a point providing the same service) can be deleted from the destination setting target of the visited point.

なお、訪問履歴リスト400には地点が登録されていない場合もあり、認識文法作成部110は、S802の処理で訪問履歴リスト400を読み込んだ後、読み込んだ認識文法に一つ以上の地点が登録されているか否かを判定する必要がある。また、S801の処理とS802の処理との実行順序は、入れ替わってもよい。   Note that there may be cases where no points are registered in the visit history list 400, and the recognition grammar creation unit 110 reads one or more points in the read recognition grammar after reading the visit history list 400 in the process of S802. It is necessary to determine whether or not Moreover, the execution order of the process of S801 and the process of S802 may be switched.

なお、第4実施形態では、同じサービスを提供する地点であれば地点の名称は問わない地点が、訪問済みの地点であっても、認識文法の変数($visited)に登録されないようにした。しかし、ユーザが、同じサービスを提供する地点であれば地点の名称は問わない地点を訪問したとしても、当該地点を訪問履歴リスト400に登録しないようにしてもよい。   In the fourth embodiment, the point where the name of the point does not matter if it is a point providing the same service is not registered in the recognition grammar variable ($ vised) even if the point has been visited. However, even if the user visits a spot where the name of the spot does not matter as long as the user provides the same service, the spot may not be registered in the visit history list 400.

具体的には、訪問履歴管理部112は、訪問済みと判定した地点のnearby305にfalseが登録されているか否かを判定する。そして、訪問履歴管理部112は、nearby305にfalseが登録されている地点のみを、訪問履歴リスト400に登録する。   Specifically, the visit history management unit 112 determines whether or not false is registered in the near 305 of the point determined to have been visited. Then, the visit history management unit 112 registers only the points where false is registered in the near 305 in the visit history list 400.

(第5実施形態)
次に、本発明の第5実施形態を図18〜図20を用いて説明する。
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described with reference to FIGS.

第5実施形態は、目的地入力装置1800が遷移する各シナリオに、各シナリオに対応する認識文法が設定される。   In the fifth embodiment, a recognition grammar corresponding to each scenario is set for each scenario to which the destination input device 1800 transitions.

図18は、本発明の第5実施形態の目的地入力装置1800の構成を示すブロック図である。なお、目的地入力装置1800の構成のうち、第1実施形態の目的地入力装置100と同じ構成については、同じ番号を付与し、説明を省略する。   FIG. 18 is a block diagram showing a configuration of a destination input device 1800 according to the fifth embodiment of the present invention. In addition, about the structure same as the destination input device 100 of 1st Embodiment among the structures of the destination input device 1800, the same number is provided and description is abbreviate | omitted.

目的地入力装置1800は、GPS受信機101、自律航法センサ102、ディスプレイ103、マイク104、A/Dコンバータ105、HDD106、地図情報読込部107、経路探索部108、音声認識部109、認識文法作成部110、地点情報記憶部111、訪問履歴管理部112、訪問履歴記憶部113、目的地記憶部114、状態遷移制御部1801、認識文法記憶部1802、シナリオ記憶部1803、及び認識文法選択部1804を備える。   The destination input device 1800 includes a GPS receiver 101, an autonomous navigation sensor 102, a display 103, a microphone 104, an A / D converter 105, an HDD 106, a map information reading unit 107, a route search unit 108, a voice recognition unit 109, and a recognition grammar creation. Unit 110, point information storage unit 111, visit history management unit 112, visit history storage unit 113, destination storage unit 114, state transition control unit 1801, recognition grammar storage unit 1802, scenario storage unit 1803, and recognition grammar selection unit 1804. Is provided.

状態遷移制御部1801は、図20に示すシナリオに基づいて、目的地入力装置1800の状態を遷移させる。   The state transition control unit 1801 changes the state of the destination input device 1800 based on the scenario shown in FIG.

目的地入力装置1800の状態は、目的地入力装置1800に備わるディスプレイ103に表示される画面の状態である。なお、遷移する画面の状態毎に、ユーザが行うことができる操作及び音声認識部109が音声認識に用いる認識文法が異なる。   The state of the destination input device 1800 is the state of the screen displayed on the display 103 provided in the destination input device 1800. Note that the operations that can be performed by the user and the recognition grammar used by the speech recognition unit 109 for speech recognition differ depending on the state of the transition screen.

認識文法記憶部1802には、認識文法作成部110によって作成された認識文法が記憶される。   The recognition grammar storage unit 1802 stores the recognition grammar created by the recognition grammar creation unit 110.

シナリオ記憶部1803には、目的地入力装置1800の状態を遷移させるためのシナリオが記憶される。なお、シナリオ記憶部1803に記憶されるシナリオは、図20で詳細を説明する。   The scenario storage unit 1803 stores a scenario for changing the state of the destination input device 1800. Details of the scenario stored in the scenario storage unit 1803 will be described with reference to FIG.

認識文法選択部1804は、現在の目的地入力装置1800の状態に対応する認識文法を選択する。   The recognition grammar selection unit 1804 selects a recognition grammar corresponding to the current state of the destination input device 1800.

図19は、本発明の第5実施形態の認識文法作成部110を中心とした各種情報の入出力の説明図である。なお、第5実施形態の認識文法作成部110を中心とした各種情報の入出力のうち、第2実施形態の認識文法作成部110を中心とした各種情報の入出力と同じ部分は、説明を省略する。   FIG. 19 is an explanatory diagram of input / output of various types of information centering on the recognition grammar creation unit 110 according to the fifth embodiment of this invention. Of the various information inputs / outputs centered on the recognition grammar creation unit 110 of the fifth embodiment, the same parts as the various information input / outputs centered on the recognition grammar creation unit 110 of the second embodiment will be described. Omitted.

状態遷移制御部1801は、シナリオ記憶部1803に記憶されたシナリオに基づいて、目的地入力装置1800の状態を遷移させる。状態遷移制御部1801は、遷移させた目的地入力装置1800の状態を、認識文法選択部1804に通知する。   The state transition control unit 1801 changes the state of the destination input device 1800 based on the scenario stored in the scenario storage unit 1803. The state transition control unit 1801 notifies the recognition grammar selection unit 1804 of the transitioned state of the destination input device 1800.

一方、認識文法作成部110は、作成した認識文法を、認識文法記憶部1802に記憶する。   On the other hand, the recognition grammar creation unit 110 stores the created recognition grammar in the recognition grammar storage unit 1802.

認識文法選択部1804は、遷移させた目的地入力装置1800の状態を状態遷移制御部1801から通知された場合、認識文法記憶部1802に記憶された認識文法から、通知された目的地入力装置1800の状態に対応する認識文法を選択する。そして、認識文法選択部1804は、選択した認識文法を音声認識部109に通知する。   When notified from the state transition control unit 1801, the recognized grammar selection unit 1804 uses the recognized grammar stored in the recognized grammar storage unit 1802 to notify the destination input device 1800. Select the recognition grammar corresponding to the state of. Then, the recognition grammar selection unit 1804 notifies the speech recognition unit 109 of the selected recognition grammar.

音声認識部109は、A/Dコンバータ105によってデジタル信号に変換された音声信号を受信した場合、認識文法選択部1804によって通知された認識文法を用いて、音声認識を実行する。   When the voice recognition unit 109 receives a voice signal converted into a digital signal by the A / D converter 105, the voice recognition unit 109 performs voice recognition using the recognition grammar notified by the recognition grammar selection unit 1804.

図20は、本発明の第5実施形態の目的地入力装置1800の状態を遷移させるシナリオの説明図である。   FIG. 20 is an explanatory diagram of a scenario for changing the state of the destination input device 1800 according to the fifth embodiment of this invention.

図20に示すシナリオでは、目的地入力装置1800が遷移し得る3つの状態が記述される。3つの状態は、トップメニュー(2001)、目的地設定状態(2002)及び目的地履歴状態(2003)である。   In the scenario shown in FIG. 20, three states in which the destination input device 1800 can make a transition are described. The three states are a top menu (2001), a destination setting state (2002), and a destination history state (2003).

まず、トップメニューについて説明する。   First, the top menu will be described.

目的地入力装置1800の状態がトップメニューである場合、認識文法選択部1804は、音声認識対象となる変数として、認識文法(command)及び認識文法(visited)を選択する(2004及び2005)。   When the destination input device 1800 is in the top menu, the recognition grammar selection unit 1804 selects a recognition grammar (command) and a recognition grammar (visited) as variables to be recognized as speech recognition (2004 and 2005).

認識文法(command)には、目的地入力装置1800の状態が、トップメニューから遷移する各状態の読み方が登録されている。本実施形態では、認識文法(command)には、目的地設定状態の読み方である「もくてきちせってい」及び目的地履歴状態の読み方である「もくてきちりれき」が登録されている。   In the recognition grammar (command), the reading of each state in which the state of the destination input device 1800 transitions from the top menu is registered. In the present embodiment, registered in the recognition grammar (command) are “Mokukiki Seiseru”, which is a way of reading the destination setting state, and “Mokukikireiki”, which is a way of reading the destination history state.

また、認識文法(visited)には、第1実施形態の図6に示す変数($again)と同じく、訪問済みであることを示す語彙の読み方、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録される変数($visited)、並びに「えいく」が予め登録されている。   In addition, the recognition grammar (visited) includes, as in the variable ($ again) shown in FIG. 6 of the first embodiment, how to read the vocabulary indicating visited, how to read the visited point, and the visited point. A variable ($ vised) in which an identifier is registered, and “eiku” are registered in advance.

また、変数($visited)には、訪問済み地点の読み方及び訪問済み地点の識別子が登録されている。   Also, in the variable ($ vised), the reading of the visited point and the identifier of the visited point are registered.

したがって、目的地入力装置1800の状態がトップメニューである場合、音声認識部109は、音声認識の対象は、遷移先を指定するコマンド及び訪問済みの地点のみである。   Therefore, when the state of the destination input device 1800 is the top menu, the speech recognition unit 109 only recognizes a command for designating a transition destination and a visited point.

また、音声認識部109が、入力された音声が遷移先を指定するコマンド(つまり、「もくてきちせってい」又は「もくてきちりれき」)であると認識した場合、目的地入力装置1800は、目的地入力装置1800の状態を、目的地設定状態(ID:“SearchDestination”)又は目的地履歴状態(ID:“VisitedDestination”)に遷移させる(2006及び2007)。   Further, when the voice recognition unit 109 recognizes that the input voice is a command for designating a transition destination (that is, “Mokukikiseri” or “Mokukikureiki”), the destination input device 1800 Changes the state of the destination input device 1800 to a destination setting state (ID: “Search Destination”) or a destination history state (ID: “Visit Destination”) (2006 and 2007).

次に、目的地設定状態について説明する。   Next, the destination setting state will be described.

目的地入力装置1800の状態が目的地設定状態である場合、認識文法選択部1804は、認識文法(visited)、認識文法(novisited)、及び認識文法(command_subset)を選択する(2008〜2010)。   When the destination input device 1800 is in the destination setting state, the recognition grammar selection unit 1804 selects a recognition grammar (visited), a recognition grammar (novisited), and a recognition grammar (command_subset) (2008 to 2010).

認識文法(visited)は、トップメニューの認識文法(visited)と同じであるので、説明を省略する。   Since the recognition grammar (visited) is the same as the recognition grammar (visited) of the top menu, description thereof is omitted.

認識文法(novisited)には、第2実施形態の図10に示す変数($first)と同じく、未訪問であることを示す語彙の読み方、未訪問の地点の読み方が登録される変数($novisited)、及び「えいく」が予め登録されている。変数($novisited)には、未訪問の地点の読み方が登録される。   Similar to the variable ($ first) shown in FIG. 10 of the second embodiment, the recognition grammar (novisited) is a variable ($ novised) for registering how to read a vocabulary indicating unvisited and how to read an unvisited point. ) And “Eiku” are registered in advance. In the variable ($ novised), how to read an unvisited point is registered.

認識文法(command_subset)には、目的地入力装置1800の状態をトップメニューに戻すことを指定するコマンドの読み方が登録される。なお、目的地入力装置1800の状態をトップメニューに戻すことを指定するコマンドの読み方としては、例えば、「もどる」及び「トップメニューへ戻る」等が登録される。   In the recognition grammar (command_subset), how to read a command specifying that the state of the destination input device 1800 is returned to the top menu is registered. Note that, for example, “return”, “return to top menu”, and the like are registered as how to read a command for specifying that the state of the destination input device 1800 is returned to the top menu.

したがって、目的地入力装置1800の状態が目的地設定状態である場合、音声認識の対象は、訪問済みの地点及び未訪問の地点(つまり地点情報リスト300に登録されているすべての地点)、並びにトップメニューへ戻るコマンドである。   Therefore, when the destination input device 1800 is in the destination setting state, the target of speech recognition is a visited point and an unvisited point (that is, all points registered in the point information list 300), and This command returns to the top menu.

次に、目的地履歴状態について説明する。   Next, the destination history state will be described.

目的地入力装置1800の状態が目的地履歴状態である場合、認識文法選択部1804は、認識文法(visited)及び認識文法(command_subset)を選択する(2011及び2012)。   When the destination input device 1800 is in the destination history state, the recognition grammar selection unit 1804 selects a recognition grammar (visited) and a recognition grammar (command_subset) (2011 and 2012).

認識文法(visited)は、トップメニューの認識文法(visited)と同じであるので、説明を省略する。認識文法(command_subset)は、目的地設定状態の認識文法(command_subset)と同じであるので、説明を省略する。   Since the recognition grammar (visited) is the same as the recognition grammar (visited) of the top menu, description thereof is omitted. Since the recognition grammar (command_subset) is the same as the recognition grammar (command_subset) in the destination setting state, the description is omitted.

なお、本実施形態では、目的地入力装置1800の状態の遷移は、ディスプレイ103に表示される画面の遷移であるとしたが、必ずしも画面の遷移である必要はない。例えば、目的地入力装置1800の状態の遷移は、目的地入力装置1800の内部状態の遷移であってもよい。例えば、目的地入力装置1800の内部状態は、目的地入力装置1800を搭載した車両が走行中である場合と停車中である場合とで遷移する。   In the present embodiment, the state transition of the destination input device 1800 is a transition of the screen displayed on the display 103, but it is not necessarily a transition of the screen. For example, the state transition of the destination input device 1800 may be a transition of the internal state of the destination input device 1800. For example, the internal state of the destination input device 1800 changes between when the vehicle on which the destination input device 1800 is mounted is traveling and when it is stopped.

また、目的地入力装置1800の状態が遷移する契機としては、ユーザがディスプレイ103に表示される画面を操作すること、ユーザが目的地入力装置1800用のリモコンを操作すること、及びユーザがコマンドの音声を入力すること等がある。   In addition, as a trigger for the state of the destination input device 1800 to change, the user operates the screen displayed on the display 103, the user operates the remote control for the destination input device 1800, and the user There are cases where voice is input.

本実施形態によれば、目的地入力装置1800は、各状態に対して対応する認識文法が選択されるので、ユーザが意図しない誤動作を防止できる。   According to the present embodiment, the destination input device 1800 can select a recognition grammar corresponding to each state, thereby preventing a malfunction that is not intended by the user.

例えば、目的地入力装置1800を搭載した車両が走行中である場合に、認識文法(visited)のみを設定し、認識文法(novisited)を設定しなければ、車両の走行中は、訪問済みの地点のみを目的地設定しない。これによって、ユーザは、車両の走行中には、ユーザの記憶にある訪問済みの地点しか目的地として設定できず、ガイドブック及び地図等を見て、未訪問の地点を目的地として設定できないので、ユーザの安全性を向上させることができる。   For example, when a vehicle equipped with the destination input device 1800 is running, if only the recognition grammar (visited) is set and the recognition grammar (novisited) is not set, the visited point is Do not set the destination only. As a result, the user can set only visited points in the user's memory as destinations while the vehicle is running, and can not set unvisited points as destinations by looking at the guidebook and map etc. The safety of the user can be improved.

(第6実施形態)
本発明の第6実施形態を図21〜図23を用いて説明する。
(Sixth embodiment)
A sixth embodiment of the present invention will be described with reference to FIGS.

第6実施形態は、第1〜5実施形態の目的地入力システムを開発するための目的地入力システム開発装置2100に関する。   The sixth embodiment relates to a destination input system development device 2100 for developing the destination input system of the first to fifth embodiments.

図21は、本発明の第6実施形態の目的地入力システム開発装置2100の構成を示すブロック図である。   FIG. 21 is a block diagram illustrating a configuration of a destination input system development device 2100 according to the sixth embodiment of this invention.

目的地入力システム開発装置2100は、システム制御部2101、擬似認識部2102、キーボード2103、ディスプレイ2104、マイク104、A/Dコンバータ105、HDD106、状態遷移制御部1801、音声認識部109、認識文法作成部110、地点情報記憶部111、訪問履歴編集部2105、訪問履歴記憶部113、認識文法選択部1804、認識文法記憶部1802、シナリオ記憶部1803、及びシナリオ編集部2106を備える。なお、第1実施形態及び第5実施形態の目的地入力装置と同じ構成は、同じ番号を付与し、説明を省略する。   The destination input system development device 2100 includes a system control unit 2101, a pseudo recognition unit 2102, a keyboard 2103, a display 2104, a microphone 104, an A / D converter 105, an HDD 106, a state transition control unit 1801, a voice recognition unit 109, and a recognition grammar creation. Unit 110, point information storage unit 111, visit history editing unit 2105, visit history storage unit 113, recognition grammar selection unit 1804, recognition grammar storage unit 1802, scenario storage unit 1803, and scenario editing unit 2106. In addition, the same structure as the destination input device of 1st Embodiment and 5th Embodiment gives the same number, and abbreviate | omits description.

システム制御部2101は、図示しないCPU、ROM、RAM及びデータバスを備える。   The system control unit 2101 includes a CPU, a ROM, a RAM, and a data bus (not shown).

擬似認識部2102は、キーボード2103によって入力された情報と、認識文法選択部2116によって選択された認識文法とを比較することによって、キーボード2103によって入力された情報を認識する。   The pseudo recognition unit 2102 recognizes information input by the keyboard 2103 by comparing the information input by the keyboard 2103 with the recognition grammar selected by the recognition grammar selection unit 2116.

ディスプレイ2104は、図23に示す編集画面等を表示する。訪問履歴編集部2105は、ユーザによって指定された地点を訪問済みの地点として編集する。なお、図1に示す訪問履歴管理部112は、エンドユーザによって設定された目的地及び実際の移動に連動して、訪問履歴リスト400を管理するのに対して、訪問履歴編集部2105は、開発者等のユーザが訪問履歴リスト400を直接編集する。   The display 2104 displays an editing screen shown in FIG. The visit history editing unit 2105 edits a point designated by the user as a visited point. The visit history management unit 112 shown in FIG. 1 manages the visit history list 400 in conjunction with the destination set by the end user and the actual movement, whereas the visit history editing unit 2105 A user such as a person directly edits the visit history list 400.

シナリオ編集部2106は、シナリオ記憶部1803に記憶されたシナリオを読み出し、読み出したシナリオをユーザに編集させ、編集されたシナリオをシナリオ記憶部1803に記憶する。   The scenario editing unit 2106 reads the scenario stored in the scenario storage unit 1803, causes the user to edit the read scenario, and stores the edited scenario in the scenario storage unit 1803.

図22は、本発明の第6実施形態の認識文法作成部110を中心とした各種情報の入出力の説明図である。なお、図22では、第5実施形態の図19に示す各種情報の入出力と同じ箇所については、同一の符号を付与し、説明を省略する。   FIG. 22 is an explanatory diagram of input / output of various information centered on the recognition grammar creation unit 110 according to the sixth embodiment of this invention. In FIG. 22, the same reference numerals are assigned to the same portions as the input / output of various information shown in FIG. 19 of the fifth embodiment, and the description thereof is omitted.

擬似認識部2102は、ユーザによってキーボード2103を介して入力された情報と、認識文法選択部1804から通知された認識文法とを比較し、入力された情報を認識する。そして、擬似認識部2102は、認識した情報の読み記号列及び意味構造体をシステム制御部2101に出力する。   The pseudo recognition unit 2102 compares information input by the user via the keyboard 2103 with the recognition grammar notified from the recognition grammar selection unit 1804, and recognizes the input information. Then, the pseudo recognition unit 2102 outputs the recognized symbol string and the semantic structure of the recognized information to the system control unit 2101.

シナリオ編集部2106は、シナリオ記憶部1803に記憶されているシナリオを編集可能である。   The scenario editing unit 2106 can edit the scenario stored in the scenario storage unit 1803.

訪問履歴編集部2105は、地点情報記憶部111に記憶されている地点情報リスト300を読み出し、読み出した地点情報リスト300を参照し、訪問履歴記憶部113に記憶されている訪問履歴リスト400を編集可能である。   The visit history editing unit 2105 reads the spot information list 300 stored in the spot information storage unit 111, refers to the read spot information list 300, and edits the visit history list 400 stored in the visit history storage unit 113. Is possible.

図23は、本発明の第6実施形態の編集画面2300の説明図である。   FIG. 23 is an explanatory diagram of an edit screen 2300 according to the sixth embodiment of this invention.

編集画面2300は、シナリオエディタ2301、訪問履歴エディタ2302、ユーザ発声入力2303、及び認識文法リスト2304を含む。   The edit screen 2300 includes a scenario editor 2301, a visit history editor 2302, a user utterance input 2303, and a recognition grammar list 2304.

シナリオエディタ2301は、ユーザがシナリオ記憶部1803に記憶されているシナリオを編集するための表示部である。具体的には、シナリオエディタ2301には、目的地入力装置の状態の遷移及び各状態に設定されている認識文法が表示される。   The scenario editor 2301 is a display unit for the user to edit a scenario stored in the scenario storage unit 1803. Specifically, the scenario editor 2301 displays the state transition of the destination input device and the recognition grammar set for each state.

例えば、図23に示すシナリオエディタ2301では、「TopMenu」状態から、「SearchDestination」状態又は「VisitedDestination」状態へ遷移することは表示されている。   For example, in the scenario editor 2301 shown in FIG. 23, the transition from the “Top Menu” state to the “Search Destination” state or the “Visit Destination” state is displayed.

また、「TopMenu」状態には、認識文法「command」及び認識文法「visited」が設定され、「SearchDestination」状態には、認識文法「command_subset」、認識文法「visited」、及び認識文法「novisited」が設定され、「VisitedDestination」状態には、認識文法「command_subset」及び認識文法「visited」が設定される。   In the “TopMenu” state, the recognition grammar “command” and the recognition grammar “visited” are set, and in the “SearchDestination” state, the recognition grammar “command_subset”, the recognition grammar “visited”, and the recognition grammar “novised” are set. The recognition grammar “command_subset” and the recognition grammar “visited” are set in the “Visitated Destination” state.

また、目的地入力装置の状態の遷移がシナリオエディタ2301に表示されることによって、目的地入力システム開発装置2100は、目的地入力装置の状態が遷移する場合のシミュレーションも実現できる。   In addition, by displaying the state transition of the destination input device on the scenario editor 2301, the destination input system development device 2100 can also realize a simulation when the state of the destination input device transitions.

例えば、目的地入力装置の状態が「TopMenu」状態である場合、目的地入力システム開発装置2100の音声認識部109又は擬似認識部2102が、入力された音声又はテキスト情報を、認識文法「command」と比較する。音声認識部109又は擬似認識部2102は、入力された音声又はテキスト情報が「目的地履歴」又は「目的地設定」と一致すると判定した場合、一致すると判定した「目的地履歴」又は「目的地設定」を示す値を意味構造体として、状態遷移制御部1801に出力する。   For example, when the destination input device is in the “TopMenu” state, the speech recognition unit 109 or the pseudo recognition unit 2102 of the destination input system development device 2100 converts the input speech or text information into a recognition grammar “command”. Compare with When the speech recognition unit 109 or the pseudo recognition unit 2102 determines that the input speech or text information matches the “destination history” or “destination setting”, the “destination history” or “destination” A value indicating “setting” is output to the state transition control unit 1801 as a semantic structure.

そして、状態遷移制御部1801は、意味構造体として出力された値に応じて、遷移先を決定し、決定した状態に設定された認識文法を用いて、音声認識又は擬似認識を実行する。具体的には、状態遷移制御部1801は、「目的地履歴」を示す値が出力された場合には、遷移先を「SearchDestination」状態に決定する。   Then, the state transition control unit 1801 determines a transition destination according to the value output as the semantic structure, and executes speech recognition or pseudo recognition using the recognition grammar set in the determined state. Specifically, when a value indicating “destination history” is output, the state transition control unit 1801 determines the transition destination as the “Search Destination” state.

そして、目的地入力システム開発装置2100は、目的地入力装置の状態が遷移する際に、状態遷移時に対応する画面を表示し、ガイダンス音声を図示しないスピーカから出力することによって、より目的地入力システムに近いシミュレーションを実行できる。   Then, the destination input system development device 2100 displays a screen corresponding to the state transition when the state of the destination input device transitions, and outputs guidance voice from a speaker (not shown), thereby further improving the destination input system. Simulation close to.

なお、ユーザは、シナリオエディタ2301に表示される各状態に設定されている認識文法を、変更、追加、又は削除すると、シナリオ編集部2106は、シナリオ記憶部1803に記憶されているシナリオを変更、追加、又は削除する。   When the user changes, adds, or deletes the recognition grammar set in each state displayed in the scenario editor 2301, the scenario editing unit 2106 changes the scenario stored in the scenario storage unit 1803. Add or delete.

ユーザは、各状態に設定されている認識文法を変更又は追加する場合、変更先の認識文法及び追加する認識文法を、認識文法リスト2304に表示されている認識文法の中から選択する。   When changing or adding the recognition grammar set in each state, the user selects the recognition grammar to be changed and the recognition grammar to be added from the recognition grammars displayed in the recognition grammar list 2304.

これによって、作成されていない認識文法が変更先の認識文法及び追加する認識文法となるエラーを防止できる。   Thus, it is possible to prevent an error in which a recognition grammar that has not been created becomes a recognition grammar to be changed and a recognition grammar to be added.

訪問履歴エディタ2302には、訪問履歴リスト400に登録されている地点が表示される。具体的には、訪問履歴エディタ2302には、訪問履歴リスト400に登録されている地点の施設名、最終訪問及び回数が表示される。   The visit history editor 2302 displays points registered in the visit history list 400. Specifically, the visit history editor 2302 displays the facility name, the last visit, and the number of times registered in the visit history list 400.

施設名には、地点情報リスト300の識別子301に登録される識別子のうち、訪問履歴リスト400の識別子401に登録されている識別子と一致する識別子のエントリに含まれる施設名302に登録されている地点の名称が表示される。   In the facility name, among the identifiers registered in the identifier 301 of the point information list 300, registered in the facility name 302 included in the entry of the identifier that matches the identifier registered in the identifier 401 of the visit history list 400. The name of the point is displayed.

最終訪問日には、訪問履歴リスト400の最終訪問日402に登録された年月日が表示される。回数には、訪問履歴リスト400の訪問回数403に登録された回数が表示される。   In the last visit date, the date registered in the last visit date 402 of the visit history list 400 is displayed. The number of times registered in the number of visits 403 in the visit history list 400 is displayed as the number of times.

なお、ユーザは、訪問履歴エディタ2302に表示された各エントリをキーボード2103により変更、追加、又は削除すると、訪問履歴編集部2105は、訪問履歴記憶部113に記憶されている訪問履歴リスト400を変更、追加、又は削除する。   When the user changes, adds, or deletes each entry displayed on the visit history editor 2302 using the keyboard 2103, the visit history editing unit 2105 changes the visit history list 400 stored in the visit history storage unit 113. , Add, or delete.

ユーザ発声入力2303には、ユーザが音声を発声する代わりに、音声で発声しようとしていた語彙の読み方の文字列をキーボード2103を介して入力する。   In the user utterance input 2303, instead of the user uttering a voice, a character string of how to read the vocabulary that he was going to utter with the voice is input via the keyboard 2103.

そして、擬似認識部2102は、ユーザによって入力された語彙の読み方の文字列と、認識文法に登録された語彙の読み方の文字列とを比較する。そして、擬似認識部2102は、認識文法に登録された語彙の読み方の文字列のうち、ユーザによって入力された語彙の読み方の文字列と一致する文字列が存在するか否かを判定する。   Then, the pseudo recognition unit 2102 compares the vocabulary reading character string input by the user with the vocabulary reading character string registered in the recognition grammar. Then, the pseudo recognition unit 2102 determines whether there is a character string that matches the character string of the vocabulary reading inputted by the user among the character strings of the vocabulary reading registered in the recognition grammar.

認識文法リスト2304には、各状態に設定可能な認識文法が表示される。   The recognition grammar list 2304 displays recognition grammars that can be set for each state.

本発明は、ユーザによって入力された音声を用いて目的地を設定するカーナビゲーションシステム、PND(Personal Navigation Device)、並びに携帯機器(携帯電話、PDA、及び携帯型ゲーム機等)のナビゲーションアプリケーション等に利用できる。   The present invention is applied to a navigation application for a car navigation system, a PND (Personal Navigation Device), and a portable device (such as a cellular phone, a PDA, and a portable game machine) that set a destination using voice input by a user. Available.

本発明の第1実施形態の目的地入力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the destination input device of 1st Embodiment of this invention. 本発明の第1実施形態の変形例の目的地入力システムの構成を示すブロック図である。It is a block diagram which shows the structure of the destination input system of the modification of 1st Embodiment of this invention. 本発明の第1実施形態の地点情報リストの説明図である。It is explanatory drawing of the point information list of 1st Embodiment of this invention. 本発明の第1実施形態の訪問履歴リストの説明図である。It is explanatory drawing of the visit history list | wrist of 1st Embodiment of this invention. 本発明の第1実施形態の認識文法作成部を中心とした各種情報の入出力の説明図である。It is explanatory drawing of the input / output of various information centering on the recognition grammar preparation part of 1st Embodiment of this invention. 本発明の第1実施形態の認識文法の説明図である。It is explanatory drawing of the recognition grammar of 1st Embodiment of this invention. 本発明の第1実施形態の英語を認識対象とする認識文法の説明図である。It is explanatory drawing of the recognition grammar which recognizes English of 1st Embodiment of this invention. 本発明の第1実施形態の認識文法作成部によって実行される認識文法作成処理のフローチャートである。It is a flowchart of the recognition grammar preparation process performed by the recognition grammar preparation part of 1st Embodiment of this invention. 本発明の第2実施形態の認識文法作成部を中心とした各種情報の入出力の説明図である。It is explanatory drawing of the input / output of various information centering on the recognition grammar preparation part of 2nd Embodiment of this invention. 本発明の第2実施形態の認識文法の説明図である。It is explanatory drawing of the recognition grammar of 2nd Embodiment of this invention. 本発明の第2実施形態の認識文法作成部によって実行される認識文法作成処理のフローチャートである。It is a flowchart of the recognition grammar preparation process performed by the recognition grammar preparation part of 2nd Embodiment of this invention. 本発明の第2実施形態の第1変形例の認識文法の説明図である。It is explanatory drawing of the recognition grammar of the 1st modification of 2nd Embodiment of this invention. 本発明の第2実施形態の第2変形例の認識文法の説明図である。It is explanatory drawing of the recognition grammar of the 2nd modification of 2nd Embodiment of this invention. 本発明の第3実施形態の認識文法の説明図である。It is explanatory drawing of the recognition grammar of 3rd Embodiment of this invention. 本発明の第3実施形態の認識文法作成部によって実行される認識文法作成処理のフローチャートである。It is a flowchart of the recognition grammar preparation process performed by the recognition grammar preparation part of 3rd Embodiment of this invention. 本発明の第3実施形態の訪問時期作成テーブルの説明図である。It is explanatory drawing of the visit time creation table of 3rd Embodiment of this invention. 本発明の第4実施形態の認識文法作成部によって実行される認識文法作成処理のフローチャートである。It is a flowchart of the recognition grammar preparation process performed by the recognition grammar preparation part of 4th Embodiment of this invention. 本発明の第5実施形態の目的地入力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the destination input apparatus of 5th Embodiment of this invention. 本発明の第5実施形態の認識文法作成部を中心とした各種情報の入出力の説明図である。It is explanatory drawing of the input / output of various information centering on the recognition grammar preparation part of 5th Embodiment of this invention. 本発明の第5実施形態の目的地入力装置の状態を遷移させるシナリオの説明図である。It is explanatory drawing of the scenario which changes the state of the destination input device of 5th Embodiment of this invention. 本発明の第6実施形態の目的地入力システム開発装置の構成を示すブロック図である。It is a block diagram which shows the structure of the destination input system development apparatus of 6th Embodiment of this invention. 本発明の第6実施形態の認識文法作成部を中心とした各種情報の入出力の説明図である。It is explanatory drawing of the input / output of various information centering on the recognition grammar preparation part of 6th Embodiment of this invention. 本発明の第6実施形態の編集画面の説明図である。It is explanatory drawing of the edit screen of 6th Embodiment of this invention.

符号の説明Explanation of symbols

100 目的地入力装置
101 GPS受信機
102 自律航法センサ
103 ディスプレイ
104 マイク
105 A/Dコンバータ
106 HDD
107 地図情報読込部
108 経路探索部
109 音声認識部
110 認識文法作成部
111 地点情報記憶部
112 訪問履歴管理部
113 訪問履歴記憶部
114 目的地記憶部
115 通信部
199 システム制御部
300 地点情報リスト
400 訪問履歴リスト
1600 訪問時期作成テーブル
1800 目的地入力装置
1801 状態遷移制御部
1802 認識文法記憶部
1803 シナリオ記憶部
1804 認識文法選択部
2100 目的地入力システム開発装置
2101 システム制御部
2102 擬似認識部
2103 キーボード
2104 ディスプレイ
2105 訪問履歴編集部
2106 シナリオ編集部
2116 認識文法選択部
2300 編集画面
2301 シナリオエディタ
2302 訪問履歴エディタ
2303 ユーザ発声入力
2304 認識文法リスト
100 Destination Input Device 101 GPS Receiver 102 Autonomous Navigation Sensor 103 Display 104 Microphone 105 A / D Converter 106 HDD
107 Map information reading unit 108 Route search unit 109 Voice recognition unit 110 Recognition grammar creation unit 111 Point information storage unit 112 Visit history management unit 113 Visit history storage unit 114 Destination storage unit 115 Communication unit 199 System control unit 300 Point information list 400 Visit history list 1600 Visit time creation table 1800 Destination input device 1801 State transition control unit 1802 Recognition grammar storage unit 1803 Scenario storage unit 1804 Recognition grammar selection unit 2100 Destination input system development device 2101 System control unit 2102 Pseudo recognition unit 2103 Keyboard 2104 Display 2105 Visit history editing unit 2106 Scenario editing unit 2116 Recognition grammar selection unit 2300 Edit screen 2301 Scenario editor 2302 Visit history editor 2303 User utterance input 2304 Recognition grammar list

Claims (20)

入力された音声と一つ以上の地点の情報を音声認識対象とする認識文法とを比較することによって、前記入力された音声が示す地点を認識する音声認識装置において、
前記音声認識装置は、
以前に訪問したことがある訪問済み地点の情報が登録された訪問履歴リストを有し、
訪問済みであることを意味する語彙と前記訪問履歴リストに登録された訪問済み地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成し、
前記入力された音声と前記作成された認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識することを特徴とする音声認識装置。
In the speech recognition apparatus for recognizing a point indicated by the input voice by comparing the input voice and a recognition grammar for information on one or more points as a speech recognition target,
The voice recognition device
It has a visit history list with information on visited places that have been visited before,
Creating a recognition grammar that includes a visited speech recognition target that links a vocabulary meaning that it has been visited and information on visited points registered in the visit history list;
A speech recognition apparatus that recognizes a point indicated by the input speech by comparing the input speech with a speech recognition target included in the created recognition grammar.
前記音声認識装置は、
複数の地点の情報が登録された地点情報リストを有し、
前記地点情報リストに登録された地点の情報から、前記訪問履歴リストに登録された訪問済みの地点の情報を除外することによって、未だ訪問していない未訪問地点の情報を取得し、
前記取得した未訪問地点の情報を未訪問音声認識対象として前記認識文法に含め、
前記入力された音声と前記認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識することを特徴とする請求項1に記載の音声認識装置。
The voice recognition device
It has a point information list in which information on multiple points is registered,
From the information of the points registered in the point information list, by excluding the information of the visited points registered in the visit history list, to acquire the information of the unvisited points not yet visited,
Include the information of the acquired unvisited point in the recognition grammar as an unvisited speech recognition target,
The speech recognition apparatus according to claim 1, wherein a point indicated by the input speech is recognized by comparing the input speech with a speech recognition target included in the recognition grammar.
前記音声認識装置は、未だ訪問していないことを意味する語彙と前記未訪問地点の情報とを連結させないで、前記未訪問地点の情報のみからなる未訪問音声認識対象、及び前記訪問済み音声認識対象を含む認識文法を作成することを特徴とする請求項2に記載の音声認識装置。   The speech recognition device does not connect the vocabulary meaning that the user has not visited yet and the information on the unvisited point, and includes the unvisited speech recognition target consisting of only the information on the unvisited point, and the visited speech recognition The speech recognition apparatus according to claim 2, wherein a recognition grammar including an object is created. 前記音声認識装置は、未だ訪問していないことを意味する語彙と前記未訪問地点の情報とを連結した未訪問音声認識対象、及び前記訪問済み音声認識対象を含む認識文法を作成することを特徴とする請求項2に記載の音声認識装置。   The speech recognition apparatus creates a recognition grammar including an unvisited speech recognition target obtained by connecting a vocabulary meaning that the user has not visited yet and information on the unvisited point, and the visited speech recognition target. The speech recognition apparatus according to claim 2. 前記音声認識装置は、
前記訪問済み音声認識対象の前記訪問済み地点を、訪問時期によって分類し、
前記訪問時期を特定可能な語彙と前記訪問時期に対応する訪問済みの地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成することを特徴とする請求項1に記載の音声認識装置。
The voice recognition device
Classifying the visited points of the visited speech recognition target according to the visit time;
The speech recognition according to claim 1, wherein a recognition grammar including a visited speech recognition target is created by connecting a vocabulary that can specify the visit time and information on a visited point corresponding to the visit time. apparatus.
前記音声認識装置は、
前記訪問済み音声認識対象から除外する除外地点が予め登録され、
前記除外地点を訪問した場合であっても、前記登録された除外地点を参照し、前記訪問した除外地点を前記訪問済み音声認識対象に含めないことを特徴とする請求項1に記載の音声認識装置。
The voice recognition device
Excluded points to be excluded from the visited speech recognition target are registered in advance,
The speech recognition according to claim 1, wherein even when the exclusion point is visited, the registered exclusion point is referred to and the visited exclusion point is not included in the visited speech recognition target. apparatus.
前記認識文法は複数の音声認識対象を含み、
前記音声認識装置は、
前記入力された音声との比較に用いる音声認識対象が異なる複数の状態、及び前記各状態と前記比較に用いる音声認識対象とを対応付けるシナリオを有し、
前記複数の状態間において状態を遷移させ、
前記シナリオに基づいて、前記遷移した状態に対応する音声認識対象を選択し、
前記選択された音声認識対象を含む認識文法を作成し、
前記入力された音声と前記音声認識装置の状態に対応する音声認識対象とを比較することによって、前記入力された音声が示す地点を認識することを特徴とする請求項1に記載の音声認識装置。
The recognition grammar includes a plurality of speech recognition objects,
The voice recognition device
A plurality of states with different speech recognition targets used for comparison with the input speech, and a scenario for associating each state with the speech recognition target used for the comparison,
Transitioning states between the plurality of states;
Based on the scenario, select a speech recognition target corresponding to the transitioned state,
Creating a recognition grammar including the selected speech recognition target;
The speech recognition device according to claim 1, wherein a point indicated by the input speech is recognized by comparing the input speech with a speech recognition target corresponding to a state of the speech recognition device. .
前記音声認識装置は、前記音声認識装置を搭載した車両の状態が変化することによって、前記音声認識装置の状態を遷移させることを特徴とする請求項7に記載の音声認識装置。   The voice recognition apparatus according to claim 7, wherein the voice recognition apparatus changes the state of the voice recognition apparatus when a state of a vehicle on which the voice recognition apparatus is mounted is changed. 前記訪問履歴リストに登録された訪問済みの地点の情報は変更可能であって、
前記音声認識装置は、前記訪問履歴リストに登録された訪問済み地点の情報が変更された場合に、前記変更された訪問履歴リストに基づいて、前記訪問済み音声認識対象を変更することを特徴とする請求項1に記載の音声認識装置。
The information of the visited points registered in the visit history list can be changed,
The speech recognition device is configured to change the visited speech recognition target based on the changed visit history list when the information on the visited points registered in the visit history list is changed. The speech recognition apparatus according to claim 1.
設定された地点までの経路を案内するナビゲーション装置において、
前記ナビゲーション装置は、
以前に訪問したことがある訪問済み地点の情報を登録された訪問履歴リストを有し、
音声の入力を受け付け、
訪問済みであることを意味する語彙と前記訪問履歴リストに登録された訪問済み地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成し、
前記入力された音声と前記作成された認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識し、
前記ナビゲーション装置の現在地から前記認識した地点までの経路を案内することを特徴とするナビゲーション装置。
In a navigation device that guides the route to a set point,
The navigation device includes:
It has a visit history list with information on visited places that have been visited before,
Accept voice input,
Creating a recognition grammar that includes a visited speech recognition target that links a vocabulary meaning that it has been visited and information on visited points registered in the visit history list;
Recognizing a point indicated by the input voice by comparing the input voice and a voice recognition target included in the created recognition grammar;
A navigation device for guiding a route from the current location of the navigation device to the recognized point.
前記ナビゲーション装置は、
複数の地点の情報が登録された地点情報リストを有し、
前記訪問履歴リストを参照し、前記地点情報リストに登録された地点の情報のうち、未だ訪問していない未訪問地点の情報を取得し、
前記訪問済み音声認識対象を含む認識文法に、前記取得された未訪問地点の情報を、未訪問音声認識対象として含め、
前記入力された音声と前記作成された認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識することを特徴とする請求項10に記載のナビゲーション装置。
The navigation device includes:
It has a point information list in which information on multiple points is registered,
With reference to the visit history list, among the information of points registered in the point information list, obtain information of unvisited points that have not yet been visited,
In the recognition grammar including the visited speech recognition target, the information on the acquired unvisited point is included as an unvisited speech recognition target,
The navigation apparatus according to claim 10, wherein the point indicated by the input voice is recognized by comparing the input voice with a voice recognition target included in the created recognition grammar.
前記ナビゲーション装置は、
前記訪問済み音声認識対象の前記訪問済み地点を、訪問時期によって分類し、
前記訪問時期を特定可能な語彙と前記訪問時期に対応する訪問済みの地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成することを特徴とする請求項10に記載のナビゲーション装置。
The navigation device includes:
Classifying the visited points of the visited speech recognition target according to the visit time;
11. The navigation apparatus according to claim 10, wherein a recognition grammar including a visited speech recognition target is generated by connecting a vocabulary that can specify the visit time and information on a visited point corresponding to the visit time. .
前記ナビゲーション装置は、
前記訪問済み音声認識対象から除外する除外地点が予め登録され、
前記除外地点を訪問した場合であっても、前記登録された除外地点を参照し、前記訪問した除外地点を前記訪問済み音声認識対象に含めないことを特徴とする請求項10に記載のナビゲーション装置。
The navigation device includes:
Excluded points to be excluded from the visited speech recognition target are registered in advance,
11. The navigation device according to claim 10, wherein, even when the exclusion point is visited, the registered exclusion point is referred to and the visited exclusion point is not included in the visited speech recognition target. .
前記認識文法は複数の音声認識対象を含み、
前記ナビゲーション装置は、
前記入力された音声との比較に用いる音声認識対象が異なる複数の状態、前記各状態と前記比較に用いる音声認識対象とを対応付けるシナリオを有し、
前記複数の状態間において状態を遷移させ、
前記シナリオに基づいて、前記遷移した状態に対応する音声認識対象を選択し、
前記選択された音声認識対象を含む認識文法を作成し、
前記入力された音声と前記ナビゲーション装置の状態に対応する音声認識対象とを比較することによって、前記入力された音声が示す地点を認識することを特徴とする請求項10に記載のナビゲーション装置。
The recognition grammar includes a plurality of speech recognition objects,
The navigation device includes:
A plurality of states with different speech recognition targets used for comparison with the input speech, a scenario for associating each state with the speech recognition target used for the comparison,
Transitioning states between the plurality of states;
Based on the scenario, select a speech recognition target corresponding to the transitioned state,
Creating a recognition grammar including the selected speech recognition target;
The navigation device according to claim 10, wherein the point indicated by the input voice is recognized by comparing the input voice and a voice recognition target corresponding to the state of the navigation device.
前記訪問履歴リストに登録された訪問済みの地点の情報は変更可能であって、
前記ナビゲーション装置は、前記訪問履歴リストに登録された訪問済み地点の情報が変更された場合に、前記変更された訪問履歴リストに基づいて、前記訪問済み音声認識対象を変更することを特徴とする請求項10に記載のナビゲーション装置。
The information of the visited points registered in the visit history list can be changed,
The navigation device is configured to change the visited speech recognition target based on the changed visit history list when the information on the visited points registered in the visit history list is changed. The navigation device according to claim 10.
入力された音声を認識する音声認識装置に、前記入力された音声と一つ以上の地点の情報を音声認識対象とする認識文法とを比較することによって、前記入力された音声が示す地点を認識させるプログラムであって、
前記プログラムは、前記音声認識装置に、
音声の入力を受け付けさせ、
以前に訪問したことがある訪問済み地点の情報を訪問履歴リストに登録させ、
訪問済みであることを意味する語彙と前記訪問履歴リストに登録された訪問済み地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成させ、
前記入力された音声と前記作成された認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識させることを特徴とするプログラム。
The speech recognition apparatus for recognizing the input speech recognizes the point indicated by the input speech by comparing the input speech with a recognition grammar for information on one or more points as a speech recognition target. A program to
The program is stored in the voice recognition device.
Accept voice input,
Register your visited history information in the visit history list,
Creating a recognition grammar that includes a visited speech recognition target that links a vocabulary that means having been visited and information on visited points registered in the visit history list;
A program for recognizing a point indicated by the input voice by comparing the input voice with a voice recognition target included in the created recognition grammar.
前記音声認識装置は、複数の地点の情報が登録された地点情報リストを有し、
前記プログラムは、前記音声認識装置に、
前記訪問履歴リストを参照させ、前記地点情報リストに登録された地点の情報のうち、未だ訪問していない未訪問地点の情報を取得させ、
前記訪問済み音声認識対象を含む認識文法に、前記取得させた未訪問地点の情報を、未訪問音声認識対象として含めさせ、
前記入力された音声と前記認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識させることを特徴とする請求項16に記載のプログラム。
The voice recognition device has a point information list in which information of a plurality of points is registered,
The program is stored in the voice recognition device.
Refer to the visit history list, to obtain the information of the unvisited points that have not yet visited among the information of the points registered in the point information list,
The recognition grammar including the visited speech recognition target includes the acquired information on the unvisited point as an unvisited speech recognition target,
The program according to claim 16, wherein a point indicated by the input voice is recognized by comparing the input voice with a voice recognition target included in the recognition grammar.
前記プログラムは、前記音声認識装置に、
前記訪問済み音声認識対象の前記訪問済み地点を、訪問時期によって分類させ、
前記訪問時期を特定可能な語彙と前記訪問時期に対応する訪問済みの地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成させることを特徴とする請求項16に記載のプログラム。
The program is stored in the voice recognition device.
Classifying the visited point of the visited speech recognition target according to the visit time;
17. The program according to claim 16, wherein a recognition grammar including a visited speech recognition target is generated by connecting a vocabulary that can specify the visit time and information on a visited point corresponding to the visit time.
前記認識文法は複数の音声認識対象を含み、
前記音声認識装置は、前記入力された音声との比較に用いる音声認識対象が異なる複数の状態、前記各状態と前記比較に用いる音声認識対象とを対応付けるシナリオを有し、
前記プログラムは、前記音声認識装置に、
前記複数の状態間において状態を遷移させ、
前記シナリオに基づいて、前記遷移した状態に対応する音声認識対象を選択させ、
前記選択させた音声認識対象を含む認識文法を作成させ、
前記入力された音声と前記ナビゲーション装置の状態に対応する音声認識対象とを比較することによって、前記入力された音声が示す地点を認識させことを特徴とする請求項16に記載のプログラム。
The recognition grammar includes a plurality of speech recognition objects,
The speech recognition apparatus has a plurality of states in which speech recognition targets used for comparison with the input speech are different, and a scenario for associating each state with the speech recognition target used for the comparison,
The program is stored in the voice recognition device.
Transitioning states between the plurality of states;
Based on the scenario, the speech recognition target corresponding to the transitioned state is selected,
Creating a recognition grammar including the selected speech recognition target;
The program according to claim 16, wherein a point indicated by the input voice is recognized by comparing the input voice with a voice recognition target corresponding to the state of the navigation device.
前記訪問履歴リストに登録された訪問済みの地点の情報は変更可能であって、
前記プログラムは、前記音声認識装置に、
前記訪問履歴リストに登録された訪問済み地点の情報が変更された場合に、前記変更された訪問履歴リストに基づいて、前記訪問済み音声認識対象を変更させることを特徴とする請求項16に記載のプログラム。
The information of the visited points registered in the visit history list can be changed,
The program is stored in the voice recognition device.
17. The visited speech recognition target is changed based on the changed visit history list when information on visited points registered in the visit history list is changed. Program.
JP2008011349A 2008-01-22 2008-01-22 Speech recognition device, navigation device, and destination setting program Pending JP2009175233A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008011349A JP2009175233A (en) 2008-01-22 2008-01-22 Speech recognition device, navigation device, and destination setting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008011349A JP2009175233A (en) 2008-01-22 2008-01-22 Speech recognition device, navigation device, and destination setting program

Publications (1)

Publication Number Publication Date
JP2009175233A true JP2009175233A (en) 2009-08-06

Family

ID=41030432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008011349A Pending JP2009175233A (en) 2008-01-22 2008-01-22 Speech recognition device, navigation device, and destination setting program

Country Status (1)

Country Link
JP (1) JP2009175233A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012137382A1 (en) * 2011-04-07 2012-10-11 クラリオン株式会社 Wireless communication terminal and operating system
WO2012168969A1 (en) * 2011-06-08 2012-12-13 パイオニア株式会社 Navigation system, terminal apparatus, navigation apparatus, navigation system control method, program, and recording medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012137382A1 (en) * 2011-04-07 2012-10-11 クラリオン株式会社 Wireless communication terminal and operating system
JP2012222552A (en) * 2011-04-07 2012-11-12 Clarion Co Ltd Radio communication terminal and operation system
US9094956B2 (en) 2011-04-07 2015-07-28 Clarion Co., Ltd. Wireless communication terminal and operating system
WO2012168969A1 (en) * 2011-06-08 2012-12-13 パイオニア株式会社 Navigation system, terminal apparatus, navigation apparatus, navigation system control method, program, and recording medium

Similar Documents

Publication Publication Date Title
US8949133B2 (en) Information retrieving apparatus
JP5334178B2 (en) Speech recognition apparatus and data update method
JP4040573B2 (en) Speech recognition apparatus and method
US20080059199A1 (en) In-vehicle apparatus
KR20070113665A (en) Method and apparatus for setting destination in navigation terminal
US20200410992A1 (en) Device for recognizing speech input from user and operating method thereof
JP4867622B2 (en) Speech recognition apparatus and speech recognition method
JP4466379B2 (en) In-vehicle speech recognition device
JP4967519B2 (en) Voice recognition device
US7809563B2 (en) Speech recognition based on initial sound extraction for navigation and name search
JP2009175233A (en) Speech recognition device, navigation device, and destination setting program
JP5455355B2 (en) Speech recognition apparatus and program
US20110022390A1 (en) Speech device, speech control program, and speech control method
JP4822847B2 (en) Audio conversion processor
KR100677711B1 (en) Voice recognition apparatus, storage medium and navigation apparatus
JP2011180416A (en) Voice synthesis device, voice synthesis method and car navigation system
JP2008027035A (en) On-vehicle device
JP2003005783A (en) Navigation system and its destination input method
KR20100126992A (en) Address searching method using voice recognition capable of reducing number of times of command
JP2010038751A (en) Navigation system
JP4486413B2 (en) Voice dialogue method, voice dialogue apparatus, voice dialogue program, and recording medium recording the same
JPWO2006028171A1 (en) Data presentation apparatus, data presentation method, data presentation program, and recording medium recording the program
JP2008152043A (en) Speech recognition apparatus and method
JP4550207B2 (en) Voice recognition device and voice recognition navigation device
JP4736962B2 (en) Keyword selection method, speech recognition method, keyword selection system, and keyword selection device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20090828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090828

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20091109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20091109