JP2009175233A - Speech recognition device, navigation device, and destination setting program - Google Patents
Speech recognition device, navigation device, and destination setting program Download PDFInfo
- Publication number
- JP2009175233A JP2009175233A JP2008011349A JP2008011349A JP2009175233A JP 2009175233 A JP2009175233 A JP 2009175233A JP 2008011349 A JP2008011349 A JP 2008011349A JP 2008011349 A JP2008011349 A JP 2008011349A JP 2009175233 A JP2009175233 A JP 2009175233A
- Authority
- JP
- Japan
- Prior art keywords
- visited
- speech recognition
- recognition
- point
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、目的地までの経路を案内するナビゲーション装置に関し、特に、音声によって目的地を設定するナビゲーション装置に関する。 The present invention relates to a navigation device that guides a route to a destination, and more particularly to a navigation device that sets a destination by voice.
現在のカーナビゲーションシステムは大容量のハードディスク装置(HDD)を搭載しているので、目的地として設定できる地点の数が数千万にのぼる。また、携帯電話の歩行者ナビゲーションシステムにおいても、サーバが地点の情報を管理しているので、目的地として設定できる地点の数は、カーナビゲーションシステムと同じく数千万にのぼる。 Since the current car navigation system is equipped with a large-capacity hard disk drive (HDD), there are tens of millions of points that can be set as destinations. Also, in the mobile phone pedestrian navigation system, since the server manages the location information, the number of locations that can be set as destinations is tens of millions, as in the car navigation system.
ユーザが目的地として設定できる地点の情報から目的地として設定する地点を検索する方法としては、目的地として設定する地点の電話番号、目的地として設定する地点の住所、又は目的地として設定する地点の施設名(その施設名の一部でもよい)を用いて検索する方法がある。 As a method of searching for a point set as a destination from information on points that can be set as a destination by a user, a telephone number of a point set as a destination, an address of a point set as a destination, or a point set as a destination There is a method of searching using a facility name (may be a part of the facility name).
また、目的地として設定する地点を検索するキーとなる電話番号等の検索キー情報をユーザが入力する方法としては、ナビゲーションシステムの画面上に表示されるキーボードによる入力方法、及び音声認識による入力方法が知られている。 In addition, as a method for a user to input search key information such as a telephone number that is a key for searching for a point set as a destination, an input method using a keyboard displayed on a screen of a navigation system, and an input method using voice recognition It has been known.
検索キー情報の入力方法が音声認識である場合、ナビゲーションシステムは、ユーザが発声した音声を認識する音声認識部を備える。音声認識部は、大量の音声データから、発話を構成する単位標準パターンの音響モデルを学習する。そして、音声認識部は、学習した単位標準パターンの音響モデルを連結することによって、認識対象とする語彙群を生成する。 When the input method of the search key information is speech recognition, the navigation system includes a speech recognition unit that recognizes speech uttered by the user. The speech recognition unit learns an acoustic model of a unit standard pattern that constitutes an utterance from a large amount of speech data. The speech recognition unit generates a vocabulary group to be recognized by connecting the acoustic models of the learned unit standard patterns.
発話を構成する単位標準パターンとしては、音節、母音の定常部、子音の定常部、及び音素片等が用いられる。なお、音素片は、音節、母音の定常部及び子音の定常部の遷移状態からなる。 As a unit standard pattern constituting an utterance, a syllable, a vowel stationary part, a consonant stationary part, a phoneme segment, and the like are used. Note that a phoneme segment includes transition states of a syllable, a vowel stationary part, and a consonant stationary part.
単位標準パターンの音響モデルを表現する方法として、HMM(Hidden Markov Model)技術が知られている(非特許文献1参照)。 HMM (Hidden Markov Model) technology is known as a method for expressing an acoustic model of a unit standard pattern (see Non-Patent Document 1).
また、単位標準パターンの音響モデルを連結した認識対象の語彙群を表現する方法としては、SRGS(Speech Recognition Grammar Specification)等が知られている(非特許文献2参照)。 Moreover, SRGS (Speech Recognition Grammar Specification) etc. are known as a method of expressing the recognition target vocabulary group which connected the acoustic model of the unit standard pattern (refer nonpatent literature 2).
現在の音声認識は、HMM技術等によって表現された確率的な単位標準パターンの音響モデルとユーザによって入力された音声の音響モデルとのパターンマッチングによって実現される。 Current speech recognition is realized by pattern matching between an acoustic model of a stochastic unit standard pattern expressed by HMM technology or the like and an acoustic model of speech input by a user.
このため、ユーザによって入力された音声を音声認識部が誤って認識し、ユーザが意図した目的地と異なる目的地が選択される場合がある。 For this reason, the voice recognition unit may erroneously recognize the voice input by the user, and a destination different from the destination intended by the user may be selected.
音声認識部の誤認識を抑制するために、認識対象とする語彙群を制限することが考えられる。 In order to suppress misrecognition of the speech recognition unit, it is conceivable to limit the vocabulary group to be recognized.
ユーザが検索に使用したい検索キー情報を指定し、音声認識部は、指定された検索キー情報に対応する音声認識モードを選択する。そして、ユーザは、検索キー情報を指定した後に、音声を入力する。なお、選択された音声認識モードの認識対象となる語彙群は、指定された検索キー情報に対応する語彙群のみであって、指定された検索キー情報に対応しない語彙群は削除されている。 The user designates search key information desired to be used for the search, and the voice recognition unit selects a voice recognition mode corresponding to the designated search key information. Then, the user inputs voice after designating the search key information. Note that the vocabulary group to be recognized in the selected speech recognition mode is only the vocabulary group corresponding to the designated search key information, and the vocabulary group not corresponding to the designated search key information is deleted.
具体的には、ナビゲーションシステムは、音声認識モードとして、電話番号認識モード、住所認識モード及び施設名認識モード等を有する。例えば、電話番号認識モードの認識対象となる語彙群は、電話番号に対応する語彙群のみを含み、住所及び施設名に対応する語彙群を含まない。 Specifically, the navigation system has a telephone number recognition mode, an address recognition mode, a facility name recognition mode, and the like as voice recognition modes. For example, the vocabulary group to be recognized in the telephone number recognition mode includes only the vocabulary group corresponding to the telephone number and does not include the vocabulary group corresponding to the address and the facility name.
さらに、住所認識モードでは、認識対象となる語彙群が、都道府県及び市町村別に分類され、施設名認識モードでは、認識対象となる語彙群が、施設のジャンル別に分類されていてもよい。 Furthermore, in the address recognition mode, the vocabulary groups to be recognized may be classified by prefecture and municipality, and in the facility name recognition mode, the vocabulary groups to be recognized may be classified by the genre of the facility.
この場合、ユーザは、使用する検索キー情報を指定後、さらに分類を指定する。これによって、音声認識部は、認識対象となる語彙群をさらに減少させることができる。 In this case, after specifying the search key information to be used, the user further specifies the classification. Thereby, the voice recognition unit can further reduce the vocabulary group to be recognized.
また、目的地として設定する地点の検索キー情報ではなく、ナビゲーションシステムに指示するコマンド名を音声認識対象とするナビゲーションシステムが知られている(特許文献1及び特許文献2参照)。
In addition, there is known a navigation system in which a command name instructed to the navigation system is used as a speech recognition target instead of search key information of a point set as a destination (see
具体的には、このナビゲーションシステムが、入力されたコマンド名を示す音声を認識して、認識されたコマンドに基づいて、ナビゲーションシステムの動作を切り換える。 Specifically, the navigation system recognizes a voice indicating the input command name, and switches the operation of the navigation system based on the recognized command.
また、ユーザが実際に訪れた地点の履歴情報及び目的地として設定された地点の履歴を利用して、目的地を設定するナビゲーションシステムも知られている(特許文献3及び特許文献4参照)。
There is also known a navigation system that sets a destination by using history information of a point actually visited by a user and a point history set as a destination (see
さらに、音声認識モードとして、目的地を設定する語彙群が目的地として設定された地点に対応する語彙群のみを含む目的地履歴モードを有するナビゲーションシステムも知られている。 Furthermore, as a speech recognition mode, a navigation system having a destination history mode in which a vocabulary group for setting a destination includes only a vocabulary group corresponding to a point set as the destination is also known.
このナビゲーションシステムは、音声認識モードを切り換えることを指示するコマンドに基づいて、音声認識モードを目的地履歴モードに切り換える。そして、このナビゲーションシステムは、ユーザによって入力された音声と、目的地として設定された地点に対応する語彙群のみからなる語彙群と、を比較して、目的地を設定する。
従来のナビゲーションシステムにおいて、ユーザは、認識対象となる語彙群を減少させるために、電話番号認識モード、住所認識モード、及び施設名認識モード等からなる音声認識モードを、利用したい音声認識モードに切り替えてから、目的地を設定するための音声を入力していた。 In the conventional navigation system, the user switches the voice recognition mode including the telephone number recognition mode, the address recognition mode, and the facility name recognition mode to the voice recognition mode to be used in order to reduce the vocabulary group to be recognized. After that, the voice for setting the destination was input.
このため、ユーザは、目的地を設定するための音声を入力する前に、音声認識モードを切り替えなければならず、当該切り替えの操作が煩わしいものであった。 For this reason, the user has to switch the voice recognition mode before inputting the voice for setting the destination, and the switching operation is troublesome.
本発明の目的は、事前に音声認識モードを切り替える必要がなく、誤認識の発生が少ないナビゲーションシステムを提供することである。 An object of the present invention is to provide a navigation system that does not need to switch voice recognition modes in advance and that causes less recognition errors.
また、従来の技術では、ある地点の名称が、未訪問の地点として登録され、かつ訪問済みの地点として登録されていた場合、訪問済みの地点の名称を発声した場合でも、非常に数の多い未訪問の地点として誤認識されてしまう可能性が高かった。 In addition, in the conventional technology, when the name of a certain point is registered as an unvisited point and registered as a visited point, there are a large number even if the name of a visited point is spoken There was a high possibility of being misrecognized as an unvisited point.
本発明の代表的な一形態によると、入力された音声と一つ以上の地点の情報を音声認識対象とする認識文法とを比較することによって、前記入力された音声が示す地点を認識する音声認識装置において、前記音声認識装置は、以前に訪問したことがある訪問済み地点の情報が登録された訪問履歴リストを有し、訪問済みであることを意味する語彙と前記訪問履歴リストに登録された訪問済み地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成し、前記入力された音声と前記作成された認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識することを特徴とする。 According to a representative aspect of the present invention, the speech that recognizes the point indicated by the input speech by comparing the input speech with a recognition grammar that uses information on one or more points as a speech recognition target. In the recognition device, the voice recognition device has a visit history list in which information on visited sites that have been visited before is registered, and is registered in the visit history list with a vocabulary meaning that the user has visited. Generating a recognition grammar including a visited speech recognition target obtained by linking the information on the visited points, and comparing the input speech with a speech recognition target included in the generated recognition grammar. It is characterized by recognizing a point indicated by the received voice.
本発明の一形態によると、訪問済みであることを意味する語彙と前記訪問履歴リストに登録された訪問済み地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成するので、入力された音声の誤認識を防止できる。 According to one aspect of the present invention, a recognition grammar including a visited speech recognition target is created by connecting a vocabulary meaning visited and information on a visited point registered in the visit history list. Misrecognition of recorded voice can be prevented.
<第1実施形態>
本発明の第1実施形態を図1〜図5を用いて説明する。
<First Embodiment>
A first embodiment of the present invention will be described with reference to FIGS.
図1は、本発明の第1実施形態の目的地入力装置100の構成を示すブロック図である。
FIG. 1 is a block diagram showing the configuration of the
目的地入力装置100は、現在位置からユーザによって入力された目的地までの経路をディスプレイ上に表示することによって、又は音声によって、ユーザを目的地まで案内する装置である。
The
目的地入力装置100は、システム制御部199を備える。システム制御部199には、GPS受信機101、自律航法センサ102、ディスプレイ103、マイク104、A/Dコンバータ105、HDD106、地図情報読込部107、経路探索部108、音声認識部109、認識文法作成部110、地点情報記憶部111、訪問履歴管理部112、訪問履歴記憶部113、及び目的地記憶部114が接続される。
The
システム制御部199は、図示しないCPU、ROM、RAM及びデータバスを備える。
The
CPUは、RAMにロードされた各種プログラムの演算処理を実行する。RAMには、ROM及びHDD106に記憶された各種プログラム及び各種データが、CPUによってロードされる。
The CPU executes arithmetic processing of various programs loaded in the RAM. Various programs and various data stored in the ROM and the
RAMは、CPUが使用するデータ等のワークエリアである。CPU、ROM、及びRAMは、データバスによって接続される。 The RAM is a work area for data used by the CPU. The CPU, ROM, and RAM are connected by a data bus.
GPS受信機101は、図示しない複数のGPS(Global Positioning System)衛星からの信号を受信する装置である。
The
自律航法センサ102は、目的地入力装置100を搭載した車両のジャイロ情報及び車速パルスを用いて、車両の現在位置及び車両の向きを推定する。
The
ディスプレイ103には、車両の現在位置周辺の地図情報、及び目的地として設定された地点までの経路が表示される。
The
マイク104は、ユーザが発声した音声を電気信号(アナログ信号)に変換する装置である。
The
A/Dコンバータ105は、マイク104によって変換されたアナログ信号をデジタル信号に変換する装置である。
The A /
HDD106は、地図情報及び地点情報リスト300等を記憶する。地点情報は、目的地として設定される地点の施設名、読み方及びジャンル等を含む。なお、地点情報リスト300は、図3で詳細を説明する。
The HDD 106 stores map information, a
地図情報読込部107は、HDD106に記憶されている地図情報をシステム制御部199に備わるRAMに読み出す。
The map
経路探索部108は、車両の現在位置から目的地として設定された地点までの移動経路を算出する。なお、移動経路の算出方法としては、例えば、ダイクストラ法が用いられる。
The
音声認識部109は、ユーザが発声した音声と認識文法作成部110によって作成された認識語彙群とを比較して、ユーザが発声した音声を認識する。音声認識方法は、図5で詳細に説明する。
The
認識文法作成部110は、例えば、SRGSフォーマットを用いて、ユーザが発声した音声と比較するための認識語彙群を作成する。認識語彙群の作成方法は、図3で詳細に説明する。
The recognition
地点情報記憶部111は、HDD106に記憶された地点情報をシステム制御部199に備わるRAMに読み出す。
The point
訪問履歴管理部112は、ユーザが実際に訪問した地点を訪問済みの地点として判定する。
The visit
訪問履歴記憶部113は、訪問履歴管理部112によって訪問済みと判定された地点を登録した訪問履歴リスト400をシステム制御部199に備わるRAM又はHDD106に記憶する。なお、訪問履歴リスト400は、図4で詳細を説明する。
The visit
目的地記憶部114は、目的地として設定された地点をRAM又はHDD106に記録する。
The
目的地入力装置100は、図1に示す構成をすべて備えなくてもよい。具体的には、現在位置を特定するために利用されるGPS受信機101及び自律航法センサ102、ユーザに目的地までの経路を表示するディスプレイ103、ユーザによって発声された音声をアナログ信号に変換するマイク104は、ユーザが目的地入力装置100を利用する場所に設置されていなければならない。
The
しかし、GPS受信機101、自律航法センサ102、ディスプレイ103、及びマイク104以外の構成(つまり、A/Dコンバータ105、HDD106、地図情報読込部107、経路探索部108、音声認識部109、認識文法作成部110、地点情報記憶部111、訪問履歴管理部112、訪問履歴記憶部113、及び目的地記憶部114)は、目的地入力装置100に備えられなくても、目的地入力装置100にネットワーク203(図2参照)を介して接続されるサーバ200(図2参照)に備えられてもよい。
However, configurations other than the
図2では、目的地入力装置100が図1に示す構成をすべて備えない場合について一例を挙げて説明する。
In FIG. 2, a case where the
図2は、本発明の第1実施形態の変形例の目的地入力システムの構成を示すブロック図である。なお、第1実施形態の目的地入力装置100と同じ構成は、同じ番号を付与し、説明を省略する。
FIG. 2 is a block diagram showing a configuration of a destination input system according to a modification of the first embodiment of the present invention. In addition, the same structure as the
目的地入力システムは、目的地入力装置100及びサーバ200を備える。目的地入力装置100は、ネットワーク203を介して、サーバ200に接続される。
The destination input system includes a
目的地入力装置100は、GPS受信機101、自律航法センサ102、ディスプレイ103、マイク104、A/Dコンバータ105、HDD106、地図情報読込部107、通信部115、及びシステム制御部199を備える。
The
通信部115は、目的地入力装置100をネットワーク203に接続するためのインタフェースである。
The communication unit 115 is an interface for connecting the
サーバ200は、経路探索部108、音声認識部109、認識文法作成部110、地点情報記憶部111、訪問履歴管理部112、訪問履歴記憶部113、目的地記憶部114、通信部202、及びシステム制御部299を備える。
The
通信部202は、サーバ200をネットワーク203に接続するためのインタフェースである。
The
システム制御部299は、図1に示す目的地入力装置100に備わるシステム制御部199と同じ構成である。
The
図3は、本発明の実施形態の地点情報リスト300の説明図である。
FIG. 3 is an explanatory diagram of the
地点情報リスト300は、識別子301、施設名302、読み303、ジャンル304、nearby305、緯度306、及び経度307を含む。
The
識別子301には、地点の一意な識別子が登録される。施設名302には、地点の名称が登録される。
In the
読み303には、施設名302に登録された地点の名称の読み方が登録される。ジャンル304には、地点が属するジャンルが登録される。例えば、地点がラーメン店であれば、ジャンル304には、「飲食店」が登録される。
In the reading 303, how to read the name of the point registered in the
nearby305には、同じサービスを提供する地点であれば地点の名称は問わない地点に、trueが予め登録される。なお、nearby305は、第1実施形態では使用せず、第4実施形態で使用する。 In near 305, true is registered in advance at a point where the name of the point does not matter as long as the point provides the same service. The nearby 305 is not used in the first embodiment, but is used in the fourth embodiment.
緯度306には、地点の緯度が登録され、経度307には、地点の経度が登録される。
The latitude of the point is registered in the
図4は、本発明の第1実施形態の訪問履歴リスト400の説明図である。
FIG. 4 is an explanatory diagram of the
訪問履歴リスト400は、識別子401、最終訪問日402、訪問回数403、及び読み404を含む。
The
識別子401には、訪問済みの地点の一意な識別子が登録される。なお、識別子401に登録される識別子は、図3に示す地点情報リスト300の識別子301に登録される登録される識別子と対応する。
In the
最終訪問日402には、ユーザが当該地点を最後に訪問した年月日が登録される、
訪問回数403には、ユーザが当該地点を訪問した回数が登録される。読み404には、当該地点の施設の名称の読み方が登録される。
In the
The number of
図5は、本発明の第1実施形態の認識文法作成部110を中心とした各種情報の入出力の説明図である。
FIG. 5 is an explanatory diagram of input / output of various information centered on the recognition
まず、ユーザが発声した音声が音声認識部109に入力されるまでの過程を説明する。
First, a process until the voice uttered by the user is input to the
ユーザが発声した音声は、マイク104によって、アナログの電気信号である音声信号に変換される。そして、マイク104は、変換された音声信号をA/Dコンバータ105に出力する。
The voice uttered by the user is converted by the
A/Dコンバータ105は、入力された音声信号をデジタルな信号であるデジタル音声信号に変換して、変換したデジタル音声信号を音声認識部109に出力する。
The A /
次に、音声認識部109によって音声が認識されるために用いられる認識文法が、音声認識部109に入力されるまでの過程を説明する。
Next, a process until a recognition grammar used for speech recognition by the
まず、訪問履歴管理部112は、ユーザが訪問した地点を訪問済みの地点として訪問履歴記憶部113に登録する。
First, the visit
訪問履歴管理部112がユーザが地点を訪問したか否かを判定する方法について説明する。
A method in which the visit
第1の方法としては、ユーザが目的地として設定した地点を、ユーザが実際に訪問したか否かに関わらず、訪問済みの地点として判定する方法がある。具体的には、訪問履歴管理部112は、ユーザによって設定された目的地を記憶する目的地記憶部114から目的地として設定された地点を読み出し、読み出した地点を訪問済みの地点として判定する。
As a first method, there is a method of determining a point set as a destination by the user as a visited point regardless of whether or not the user has actually visited. Specifically, the visit
第2の方法としては、ユーザが目的地として設定し、かつユーザが実際に訪問した地点を、訪問済みの地点として判定する方法がある。具体的には、訪問履歴管理部112は、目的地記憶部114から目的地として設定された地点を読み出し、読み出された地点とユーザの現在位置との距離が所定値以下になった場合に、読み出した地点を訪問済みの地点として判定する。
As a second method, there is a method in which a point set by the user as a destination and a point actually visited by the user is determined as a visited point. Specifically, the visit
第3の方法としては、ユーザが同じ地点から所定時間の間移動しない場合に、この場所からの距離が最も小さい地点を、訪問済みの地点として判定する方法がある。具体的には、訪問履歴管理部112は、ユーザの移動量が所定時間の間、継続して所定値以下である場合、この場所からの距離が最も小さい地点を、訪問済みの地点として判定する。
As a third method, when the user does not move from the same point for a predetermined time, there is a method of determining a point having the smallest distance from this place as a visited point. Specifically, the visit
訪問履歴記憶部113は、訪問済みの地点として判定された地点を、訪問履歴リスト400に登録する。
The visit
また、訪問履歴記憶部113は、認識文法作成部110からの読み出し要求に応じて、訪問履歴リスト400を認識文法作成部110に出力する。
Also, the visit
なお、訪問履歴管理部112は、訪問履歴記憶部113に記憶されている訪問履歴リスト400に登録された訪問済みの地点を削除できる。具体的には、ユーザは、訪問履歴リスト400に登録された訪問済みの地点のうち、削除する訪問済みの地点を指示する。そして、訪問履歴管理部112は、ユーザによって指示された訪問済みの地点を訪問履歴リスト400から削除する。
The visit
認識文法作成部110は、訪問履歴記憶部113に記憶された訪問履歴リスト400を読み出す。そして、認識文法作成部110は、読み出した訪問履歴リスト400に基づいて、認識文法を作成する。認識文法作成部110が認識文法を作成する処理については、図6〜図8で詳細を説明する。
The recognition
音声認識部109は、入力された音声と、認識文法作成部110によって作成された図6に示す認識文法によって定義される語彙群とを比較して、入力された音声を認識する。
The
具体的には、音声認識部109は、A/Dコンバータ105によって入力されたデジタル信号を、例えばLPCケプストラム(Linear Predictive Coding Cepstrum)を用いて、ユーザが発声した音声のデジタル信号の特徴量ベクトルを算出する。
Specifically, the
そして、音声認識部109は、認識文法作成部110によって作成された認識文法によって定義される語彙群の音響モデル列を算出する。
Then, the
音声認識部109は、算出した入力された音声の特徴量ベクトルと、算出した認識文法によって定義される語彙群の音響モデル列との間で、パターンマッチングを実行する。そして、音声認識部109は、入力された音声の特徴量ベクトルに最も近似する語彙群の音響モデル列を選択する。
The
次に、音声認識部109は、選択した音響モデル列の語彙群を入力された音声として認識して、音声認識結果をシステム制御部199に出力する。具体的には、音声認識結果は、認識された音声の読み方を示す読み記号列及び認識された音声の意味を示す意味構造体である。
Next, the
音声認識部109が読み記号列を出力する処理について説明する。音声認識部109は、図6に示す認識文法を参照し、入力された音声と最も近似する語彙群を選択する際に、選択した語彙群の読み方を示す情報を取得する。そして、音声認識部109は、取得した読み方情報を読み記号列としてシステム制御部199に出力する。
A process in which the
音声認識部109が意味構造体を出力する処理について説明する。音声認識部109は、図6に示す認識文法を参照し、入力された音声と最も近似する語彙群から地点を示す語彙群を選択する際に、選択した地点を示す語彙群の識別子を取得する。そして、音声認識部109は、取得した地点を示す語彙群の識別子を意味構造体としてシステム制御部199に出力する。
A process in which the
システム制御部199は、入力された意味構造体に含まれる地点を示す語彙群の識別子を目的地として設定する。
The
システム制御部199は、入力された意味構造体に含まれる地点を示す語彙群の識別子をキー情報として経路探索部108に問い合わせることによって、目的地までの経路を取得できる。
The
また、システム制御部199は、入力された意味構造体に含まれる地点を示す語彙群の識別子をキー情報として地点情報記憶部111に問い合わせることによって、目的地周辺の位置情報を取得できる。
Further, the
そして、システム制御部199は、取得した目的地までの経路又は目的地周辺の位置情報をディスプレイ103に出力する。
Then, the
図6は、本発明の第1実施形態の認識文法の説明図である。 FIG. 6 is an explanatory diagram of a recognition grammar according to the first embodiment of this invention.
認識文法作成部110は、SRGS及びSISR(Semantics Interpretation for Speech Recognition)に記載されたフォーマットに基づいて、認識文法を作成する。なお、矩形で囲った部分が認識文法作成部110によって動的に作成される部分である。
The recognition
音声認識の対象となる変数($target)に、変数($again)が代入される(601)。 A variable ($ gain) is substituted into a variable ($ target) to be subjected to speech recognition (601).
変数($again)には、訪問済みであることを示す語彙の読み方、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録される変数($visited)、並びに「えいく」が予め登録されている(602)。なお、訪問済みであることを示す語彙の読み方として、例えば、「また」、「もういちど」又は「ふたたび」等が登録される。また、「えいく」は、省略可能である。 In the variable ($ again), the reading of the vocabulary indicating that it has been visited, the reading of the visited point, the variable for registering the identifier of the visited point ($ visited), and “Eiku” are registered in advance. (602). In addition, as a way of reading a vocabulary indicating that a visit has been made, for example, “also”, “another” or “again” is registered. “Eiku” can be omitted.
変数($visited)には、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録される(603)。変数($visited)のみが、訪問履歴リスト400に新たに地点が登録されるごとに更新され、変数($again)は、更新されない。
In the variable ($ visited), the reading of the visited point and the identifier of the visited point are registered (603). Only the variable ($ visited) is updated each time a new location is registered in the
訪問履歴管理部112がある地点を訪問済みであると判定し、訪問履歴リスト400に新たにこの地点を登録した場合に、認識文法作成部110は、この地点の読み方及び識別子を新たに変数($visited)に登録する。
When the visit
変数($visited)に登録される訪問済みの地点の識別子は、地点情報リスト300の識別子301及び訪問履歴リスト400の識別子401に登録される識別子に対応している。
The identifier of the visited point registered in the variable ($ vised) corresponds to the identifier registered in the
また、訪問済みの地点の読み方及び訪問済みの地点の識別子は、例えば、SRGS及びSISRに記載されたフォーマットに基づいて、変数($visited)に登録されるが、SRGS及びSISRに記載されたフォーマットに限定されるものではなく、音声認識に利用可能なフォーマットであればどのようなフォーマットでもよい。 In addition, how to read the visited point and the identifier of the visited point are registered in the variable ($ visited) based on the format described in SRGS and SISR, for example, but the format described in SRGS and SISR. The format is not limited to the above, and any format may be used as long as it can be used for speech recognition.
図6に示す認識文法では、変数($visited)には、訪問済みの地点として、読み方「しながわすいぞくかん」及びID「325644」、読み方「おだいば」及びID「3067382」、並びに読み方「みっどたうん」及びID「54054068」が登録されている。 In the recognition grammar shown in FIG. 6, the variable ($ visited) includes the reading “Shinagawa Suizokukan” and ID “325644”, the reading “Odaiba” and ID “30673382”, and the reading as the visited points. “Midota-un” and ID “54040568” are registered.
図6に示す認識文法によると、ユーザが、訪問済みであることを示す語彙及び訪問済みの地点として認識文法に登録された地点を示す語彙を発声した場合にのみ、目的地が設定される。 According to the recognition grammar shown in FIG. 6, the destination is set only when the user utters the vocabulary indicating that the user has visited and the vocabulary indicating the point registered in the recognition grammar as the visited point.
例えば、ユーザが「また品川水族館へ行く」と発声した場合には、音声認識部109は、「またしながわすいぞくかんえいく」を意味する読み記号列をシステム制御部199に出力し、品川水族館のID「325644」を含む意味構造体をシステム制御部199に出力する。
For example, when the user utters “Go to Shinagawa Aquarium” again, the
図7は、本発明の第1実施形態の英語を認識対象とする認識文法の説明図である。 FIG. 7 is an explanatory diagram of a recognition grammar that recognizes English as a recognition target according to the first embodiment of this invention.
英語を認識対象とする認識文法は、図6に示す日本語を認識対象とする認識文法と同じく、SRGS及びSISRに記載されたフォーマットに基づいて、認識文法作成部110によって作成され、矩形で囲った部分が動的に作成される部分である。
The recognition grammar for recognition in English is created by the recognition
英語を認識対象とする認識文法について、図6に示す日本語を認識対象とする認識文法と異なる部分のみ説明し、図6に示す日本語を認識対象とする認識文法と同じ部分は説明を省略する。 Regarding the recognition grammar targeting English, only the parts different from the recognition grammar targeting Japanese shown in FIG. 6 will be described, and the description of the same part as the recognition grammar targeting Japanese shown in FIG. 6 will be omitted. To do.
変数($again)には、「Go to」、訪問済みの地点の表記が登録される変数($visited)、及び訪問済みであることを示す語彙の表記「again」が予め登録されている(702)。 In the variable ($ again), “Go to”, a variable ($ visited) in which the notation of the visited point is registered, and a vocabulary notation “again” indicating that it has been visited are registered in advance ( 702).
変数($visited)には、例えば、「Yankee Stadium」、「Golden Gate Bridge」、及び「Disney World」が登録されている(703)。 In the variable ($ visited), for example, “Yankee Stadium”, “Golden Gate Bridge”, and “Disney World” are registered (703).
図6に示す日本語を認識対象とする認識文法は、変数($visited)には、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録されるが、図7に示す英語を認識対象とする認識文法では、変数($visited)には、訪問済みの地点の表記(英語の場合、スペル)が登録される。 The recognition grammar shown in FIG. 6 recognizes Japanese as a recognition target, but the variable ($ vised) contains the reading of the visited point and the identifier of the visited point. In the recognition grammar, the notation (visited in English) of the visited point is registered in the variable ($ visited).
変数($visited)に訪問済みの地点の読み方が登録されていない場合、音声認識部109は、地点情報記憶部111に記憶された地点情報リスト300から、認識文法に登録されている訪問済み地点の表記と一致するエントリの読み方を取得する。そして、音声認識部109は、取得した読み方に基づいて、認識文法に登録された訪問済みの地点の音響モデル列を作成する。
If the reading of visited points is not registered in the variable ($ visited), the
音声認識部109は、入力された音声の特徴量ベクトルと、このようにして作成された訪問済みの地点の音響モデル列との間で、パターンマッチングを行う。
The
なお、英語を認識対象とする認識文法においても、変数($visited)に訪問済みの地点の読み方及び訪問済みの地点の識別子を登録できる。 In the recognition grammar that recognizes English, it is possible to register how to read a visited point and an identifier of a visited point in a variable ($ vised).
図8は、本発明の第1実施形態の認識文法作成部110によって実行される認識文法作成処理のフローチャートである。
FIG. 8 is a flowchart of recognition grammar creation processing executed by the recognition
まず、認識文法作成部110は、認識文法のテンプレート部を読み込む(S801)。認識文法のテンプレート部は、図6に示す認識文法において矩形で囲った部分以外の部分であり、具体的には、変数($target)及び変数($again)である。
First, the recognition
次に、認識文法作成部110は、訪問履歴記憶部113に記憶された訪問履歴リスト400を読み込む(S802)。次に、認識文法作成部110は、訪問履歴リスト400に登録されたすべての地点の識別子301及び読み303を、認識文法の変数($visited)に登録する(S803)。
Next, the recognition
なお、S803の処理では、変数($visited)に訪問済みの地点の識別子及び訪問済みの読み方が登録される場合について説明したが、変数($visited)に訪問済みの地点の表記が登録される場合、認識文法作成部110は、訪問履歴リスト400に登録されたすべての地点の施設名302を、認識文法の変数($visited)に登録すればよい。
In the process of S803, the case where the visited point identifier and the visited reading are registered in the variable ($ visited) has been described. However, the notation of the visited point is registered in the variable ($ vised). In this case, the recognition
また、S803の処理では、訪問履歴リスト400には地点が登録されていない場合もあり、認識文法作成部110は、S802の処理で訪問履歴リスト400を読み込んだ後、読み込んだ認識文法に一つ以上の地点が登録されているか否かを判定する必要がある。また、S801の処理とS802の処理との実行順序は、入れ替わってもよい。
In the process of S803, there may be a case where no point is registered in the
第1実施形態によると、ユーザが音声を目的地入力装置100に入力することによって、目的地を設定する場合、訪問済みであることを意味する語彙が入力されなければ、目的地が設定されない。そして、訪問済みであることを意味する語彙が入力された場合、認識対象となる地点は訪問済みの地点のみであるので、認識対象となる地点がすべての地点場合よりも、目的地入力装置100の誤認識を防止できる。
According to the first embodiment, when the user inputs a voice to the
(第2実施形態)
第2実施形態を、図9〜図13を用いて説明する。
(Second Embodiment)
A second embodiment will be described with reference to FIGS.
第1実施形態は目的地設定対象が訪問済みの地点のみであったが、第2実施形態は目的地設定対象が訪問済みの地点以外の地点(つまり、未訪問の地点)も含む。 In the first embodiment, the destination setting target is only visited points, but the second embodiment includes points other than the point where the destination setting target has been visited (that is, unvisited points).
図9は、本発明の第2実施形態の認識文法作成部110を中心とした各種情報の入出力の説明図である。
FIG. 9 is an explanatory diagram of input / output of various information centered on the recognition
なお、第1実施形態と同じ構成については説明を省略し、第1実施形態と異なる構成についてのみ説明する。 In addition, description is abbreviate | omitted about the same structure as 1st Embodiment, and only a structure different from 1st Embodiment is demonstrated.
第2実施形態は、認識文法作成部110が地点情報記憶部111に記憶された地点情報リスト300を参照して、認識文法を作成する点で、第1実施形態と相違する。
The second embodiment is different from the first embodiment in that the recognition
具体的には、認識文法作成部110は、図10に示すように、訪問済みの地点のみを含む訪問済み目的地設定対象、及び地点情報リスト300に登録されたすべての地点から訪問済みの地点を削除した未訪問目的地設定対象を含む認識文法を作成する。
Specifically, as shown in FIG. 10, the recognition
図10は、本発明の第2実施形態の認識文法の説明図である。 FIG. 10 is an explanatory diagram of a recognition grammar according to the second embodiment of this invention.
矩形で囲った部分が認識文法作成部110によって動的に作成される部分である。
A portion enclosed by a rectangle is a portion that is dynamically created by the recognition
音声認識の対象となる変数($target)に、訪問済み目的地設定対象を示す変数($again)又は未訪問目的地設定対象を示す変数($first)が代入される(1001)。 A variable ($ again) indicating a visited destination setting target or a variable ($ first) indicating an unvisited destination setting target is substituted into a variable ($ target) to be subjected to speech recognition (1001).
変数($again)には、訪問済みであることを示す語彙の読み方、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録される変数($visited)(1003)、並びに「えいく」が予め登録されている(1002)。変数($again)及び変数($visited)は、第1実施形態の認識文法(図6)と同じあるので、説明を省略する。 The variable ($ again) is a variable ($ visited) (1003) in which the vocabulary reading indicating that the user has visited, the reading of the visited point, and the identifier of the visited point are registered. Is registered in advance (1002). Since the variable ($ again) and the variable ($ visited) are the same as the recognition grammar (FIG. 6) of the first embodiment, description thereof is omitted.
変数($first)には、未訪問であることを示す語彙の読み方、未訪問の地点の読み方が登録される変数($novisited)、及び「えいく」が予め登録されている(1004)。なお、未訪問であることを示す語彙の読み方として、例えば、「はじめて」が登録される。また、「えいく」は、省略可能である。 In the variable ($ first), a vocabulary reading indicating unvisited, a variable ($ novisited) in which the reading of an unvisited point is registered, and “eiku” are registered in advance (1004). For example, “for the first time” is registered as a way of reading a vocabulary indicating that the user has not visited. “Eiku” can be omitted.
変数($novisited)には、未訪問の地点の読み方が登録される(1005)。 In the variable ($ novised), how to read an unvisited point is registered (1005).
訪問履歴管理部112が、ある地点を訪問済みであると判定し、訪問履歴リスト400に新たに地点を登録した場合に、認識文法作成部110は、地点情報リスト300から訪問履歴リスト400に登録された地点を削除し、訪問履歴リスト400に登録された地点が削除された地点情報リスト300に登録された地点の読み方を変数($novisited)に新たに登録する。
When the visit
なお、図10には示していないが、変数($novisited)には、変数($visited)のように、未訪問の地点の識別子も登録されてもよい。なお、一般的には、変数($visited)に登録される未訪問の地点の数は、変数($novisited)に登録される訪問済みの地点の数よりも少ない。 Although not shown in FIG. 10, an identifier of an unvisited point may be registered in the variable ($ novised) as in the variable ($ visited). Note that in general, the number of unvisited points registered in the variable ($ visited) is smaller than the number of visited points registered in the variable ($ novised).
このようにすることによって、音声認識部109は、ユーザが訪問済みであることを示す語彙を発声したと認識した場合には、未訪問の地点よりも登録される数が少ない訪問済みの地点を用いて、ユーザが発声した地点名を認識する。これによって、目的地入力装置は誤認識を防止でき、ユーザが認識モードを切り替える必要もない。
In this way, when the
図11は、本発明の第2実施形態の認識文法作成部110によって実行される認識文法作成処理のフローチャートである。
FIG. 11 is a flowchart of a recognition grammar creation process executed by the recognition
まず、認識文法作成部110は、認識文法のテンプレート部を読み込む(S1101)。認識文法のテンプレート部は、図10に示す認識文法において矩形で囲った部分以外の部分であり、具体的には、変数($target)、変数($again)、及び変数($first)である。
First, the recognition
次に、認識文法作成部110は、訪問履歴記憶部113に記憶された訪問履歴リスト400を読み込む(S1102)。次に、認識文法作成部110は、地点情報記憶部111に記憶された地点情報リスト300を読み込む(S1103)。
Next, the recognition
そして、認識文法作成部110は、S1103の処理で読み込んだ地点情報リスト300に登録された地点から、S1102の処理で読み込んだ訪問履歴リスト400に登録された地点を削除する(S1104)。
Then, the recognition
そして、認識文法作成部110は、訪問済みの地点を削除した地点情報リスト300に登録された地点の読み303を、認識文法の変数($novisited)に登録する(S1105)。
Then, the recognition
そして、認識文法作成部110は、S1102の処理で読み込んだ訪問履歴リスト400に登録されたすべての地点の識別子301及び読み303を、認識文法の変数($visited)に登録する(S1106)。
Then, the recognition
なお、認識文法作成部110は、S1103の処理を実行する前に、S1106の処理を実行してもよい。
Note that the recognition
また、訪問履歴リスト400には地点が登録されていない場合もあり、認識文法作成部110は、S1102の処理で訪問履歴リスト400を読み込んだ後、読み込んだ認識文法に一つ以上の地点が登録されているか否かを判定する必要がある。
In addition, there are cases where points are not registered in the
(第2実施形態の第1変形例)
次に、第2実施形態の第1変形例を図12を用いて説明する。
(First Modification of Second Embodiment)
Next, a first modification of the second embodiment will be described with reference to FIG.
第2実施形態では、訪問済み目的地設定対象以外の目的地の設定対象として、未訪問の地点を目的地の設定対象とした。そして、第2実施形態では、ユーザは、未訪問の地点を目的地として設定する場合には、未訪問であることを示す語彙(「はじめて」)を、未訪問である地点名に付加して発声しなければならない。このため、ユーザは、訪問済みの地点と未訪問の地点とを明確に記憶していなければ、目的地を設定できない。 In the second embodiment, an unvisited point is set as a destination setting target as a destination setting target other than the visited destination setting target. In the second embodiment, when the user sets an unvisited point as the destination, the user adds a vocabulary (“first time”) indicating that the user has not visited to the name of the unvisited point. I have to speak. For this reason, the user cannot set the destination unless the visited point and the unvisited point are clearly stored.
第2実施形態の第1変形例では、訪問済みの目的地設定対象以外の目的地設定対象として、訪問済みの地点及び未訪問の地点を含むすべての地点を目的地の設定対象とする。 In the first modification of the second embodiment, all the points including the visited points and the unvisited points are set as the destination setting targets as the destination setting targets other than the visited destination setting targets.
図12は、本発明の第2実施形態の第1変形例の認識文法の説明図である。 FIG. 12 is an explanatory diagram of a recognition grammar according to the first modification of the second embodiment of this invention.
矩形で囲った部分が認識文法作成部110によって動的に作成される部分である。
A portion enclosed by a rectangle is a portion that is dynamically created by the recognition
音声認識の対象となる変数($target)に、訪問済み目的地設定対象を示す変数($again)又は地点情報リスト300に登録されたすべての地点を目的地設定対象とする変数($all)が代入される(1201)。
A variable ($ again) indicating a visited destination setting target or a variable ($ all) that sets all points registered in the
変数($again)には、訪問済みであることを示す語彙の読み方、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録される変数($visited)(1203)、並びに「えいく」が予め登録されている(1202)。変数($again)及び変数($visited)は、第1実施形態の認識文法(図6)と同じあるので、説明を省略する。 The variable ($ again) is a variable ($ visited) (1203) in which the reading of the vocabulary indicating that it has been visited, the reading of the visited point, and the identifier of the visited point are registered, and “eiku” Is registered in advance (1202). Since the variable ($ again) and the variable ($ visited) are the same as the recognition grammar (FIG. 6) of the first embodiment, description thereof is omitted.
変数($all)には、地点情報リスト300に登録されたすべての地点の読み方が登録される変数($allPOI)、及び「えいく」が予め登録されている(1204)。
In the variable ($ all), a variable ($ allPOI) in which how to read all the points registered in the
変数($allPOI)には、地点情報リスト300に登録されたすべての地点の読み方が登録される(1205)。このため、変数($allPOI)は、訪問履歴リスト400に新たに地点が登録されても、変化する必要がないため、認識文法作成部110によって、動的に更新されない。
In the variable ($ allPOI), how to read all the points registered in the
このようにすることによって、音声認識部109は、ユーザが訪問済みであることを示す語彙を発声したと認識した場合には、未訪問の地点よりも登録される数が少ない訪問済みの地点を用いて、ユーザが発声した地点名を認識する。これによって、目的地入力装置は誤認識を防止でき、ユーザが認識モードを切り替える必要もない。
In this way, when the
また、第2実施形態の第1変形例は、未訪問の地点を目的地として設定する場合には、ユーザは、未訪問であることを示す語彙を、未訪問の地点名に付加せずに発声しても、音声認識部は、発声された地点を認識できる。しかし、この場合、音声認識部109は、すべての地点の音響モデル列を用いて、発声された音声を認識するので、第2実施形態よりも、誤認識する可能性が高くなる。
In the first modification of the second embodiment, when an unvisited point is set as a destination, the user does not add a vocabulary indicating unvisited to the name of the unvisited point. Even if the voice is spoken, the voice recognition unit can recognize the voiced point. However, in this case, since the
(第2実施形態の第2変形例)
次に、第2実施形態の第2変形例を図13を用いて説明する。
(Second Modification of Second Embodiment)
Next, a second modification of the second embodiment will be described with reference to FIG.
第2実施形態の第2変形例では、未訪問であることを示す語彙が発声された場合には、未訪問の地点を目的地設定対象に用い、訪問済みであることを示す語彙が発声された場合には、訪問済みの地点を目的地設定対象に用い、未訪問又は訪問済みであることを示す語彙が発声されなければ、地点情報リスト300に登録されたすべての地点を目的地設定対象に用いる。
In the second modification of the second embodiment, when a vocabulary indicating unvisited is uttered, a vocabulary indicating visited is used by using an unvisited point as a destination setting target. If a visited point is used as a destination setting target and a vocabulary indicating that the site has not been visited or visited is not spoken, all the points registered in the
図13は、本発明の第2実施形態の第2変形例の認識文法の説明図である。 FIG. 13 is an explanatory diagram of a recognition grammar according to the second modification of the second embodiment of this invention.
矩形で囲った部分が認識文法作成部110によって動的に作成される部分である。
A portion enclosed by a rectangle is a portion that is dynamically created by the recognition
音声認識の対象となる変数($target)に、訪問済み目的地設定対象を示す変数($again)、未訪問目的地設定対象を示す変数($first)又は全て地点を目的地設定対象とする変数($all)が代入される(1301)。 A variable ($ again) indicating a visited destination setting target, a variable ($ first) indicating an unvisited destination setting target, or all points are set as destination setting targets in a variable ($ target) to be subjected to speech recognition. A variable ($ all) is substituted (1301).
なお、変数($again)は、図6で詳細を説明し、変数($first)は、図10で詳細を説明し、変数($all)は、図12で詳細を説明したので、説明を省略する。 The variable ($ gain) is described in detail in FIG. 6, the variable ($ first) is described in detail in FIG. 10, and the variable ($ all) is described in detail in FIG. Omitted.
(第3実施形態)
次に、第3実施形態を図14〜図16を用いて説明する。
(Third embodiment)
Next, a third embodiment will be described with reference to FIGS.
第3実施形態は、訪問済みの地点を、訪問した時期毎に分類し、認識対象を制限することによって、音声認識部109の誤認識を防止できる。
In the third embodiment, erroneous recognition of the
第3実施形態の認識文法作成部110を中心とした各種情報の入出力は、第2実施形態の図9と同じなので説明を省略する。
The input / output of various information centered on the recognition
第3実施形態の認識文法作成部110は、訪問履歴記憶部113に記憶された訪問履歴リスト400の最終訪問日402を参照し、訪問済みの地点を訪問時期毎に分類し、訪問時期毎に認識対象の地点を作成する。
The recognition
図14は、本発明の第3実施形態の認識文法の説明図である。 FIG. 14 is an explanatory diagram of a recognition grammar according to the third embodiment of this invention.
矩形で囲った部分が認識文法作成部110によって動的に作成される部分である。
A portion enclosed by a rectangle is a portion that is dynamically created by the recognition
音声認識の対象となる変数($target)に、訪問済み目的地設定対象を示す変数($again)、未訪問目的地設定対象を示す変数($first)、先月訪問した地点の目的地設定対象を示す変数($lastmonth)、又は去年訪問した地点の目的地設定対象を示す変数($lastyear)が代入される(1401)。 A variable ($ target) indicating a visited destination setting target, a variable indicating an unvisited destination setting target ($ first), and a destination setting target of a point visited last month ($ Lastmonth) or a variable ($ lastyear) indicating a destination setting target at a point visited last year is substituted (1401).
変数($again)には、訪問済みであることを示す語彙の読み方、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録される変数($visited)(1003)、並びに「えいく」が予め登録されている(1402)。変数($again)及び変数($visited)(1403)は、第1実施形態の認識文法(図6)と同じあるので、説明を省略する。 In the variable ($ again), a variable ($ vised) (1003) in which a vocabulary reading indicating visited, a reading of a visited point, and an identifier of a visited point are registered, and “eiku” are registered. Is registered in advance (1402). Since the variable ($ again) and the variable ($ vised) (1403) are the same as the recognition grammar (FIG. 6) of the first embodiment, description thereof is omitted.
変数($first)には、未訪問であることを示す語彙の読み方、未訪問の地点の読み方が登録される変数($novisited)、及び「えいく」が予め登録されている(1404)。なお、未訪問であることを示す語彙の読み方として、例えば、「はじめて」が登録される。また、「えいく」は、省略可能である。変数($novisited)(1406)は、第2実施形態の認識文法(図10)で詳細を説明したので、説明を省略する。 In the variable ($ first), a vocabulary reading indicating unvisited, a variable ($ novisited) in which the reading of an unvisited point is registered, and “eiku” are registered in advance (1404). For example, “for the first time” is registered as a way of reading a vocabulary indicating that the user has not visited. “Eiku” can be omitted. Since the variable ($ novisited) (1406) has been described in detail in the recognition grammar (FIG. 10) of the second embodiment, a description thereof will be omitted.
変数($lastmonth)には、先月を示す語彙の読み方が登録された変数($lastmonth_yomi)、「いった」、先月訪問した地点を示す変数($visited_lastmonth)、及び「えいく」が登録される(1406)。 In the variable ($ lastmonth), a variable ($ lastmonth_yomi) in which the vocabulary indicating the last month is registered, “e”, a variable indicating the point visited last month ($ visited_lastmonth), and “eiku” are registered. (1406).
変数($lastmonth_yomi)には、例えば、「せんげつ」及び「いっかげつまえ」等が登録される(1407)。 In the variable ($ lastmonth_yomi), for example, “sengetsu” and “Ikagetsumae” are registered (1407).
変数($visited_lastmonth)には、先月訪問した地点の読み方及び識別子が登録される(1408)。 In the variable ($ visited_lastmonth), the reading and identifier of the point visited last month are registered (1408).
具体的には、認識文法作成部110は、訪問履歴リスト400の最終訪問日402に登録された年月日を参照し、現在の月よりも1か月前の月に属するエントリを選択する。そして、認識文法作成部110は、選択されたエントリの識別子401に登録された識別子及び読み404に登録された読み方を取得する。そして、認識文法作成部110は、取得された読み方及び識別子を、変数($visited_lastmonth)に登録する。
Specifically, the recognition
変数($lastyear)には、去年を示す語彙の読み方が登録された変数($lastyear_yomi)、「いった」、去年訪問した地点を示す変数($visited_lastyear)、及び「えいく」が登録される(1409)。 In the variable ($ lastyear), a variable ($ lastyear_yomi) in which the reading of the vocabulary indicating last year is registered, “Ita”, a variable ($ visited_lastear) indicating the place visited last year, and “eiku” are registered. (1409).
変数($lastyear_yomi)には、例えば、「きょねん」、「さくねん」、及び「いちねんまえ」が登録される(1410)。 In the variable ($ lastyear_omi), for example, “Kyonen”, “Sakunen”, and “Ichinenmae” are registered (1410).
変数($visited_lastyear)には、去年訪問した地点の読み方及び識別子が登録される(1411)。 In the variable ($ visited_lastyear), the reading and identifier of the point visited last year are registered (1411).
具体的には、認識文法作成部110は、変数($visited_lastmonth)に地点の読み方及び識別子を登録する処理と同様に、訪問履歴リスト400の最終訪問日402に登録された年月日を参照し、現在の年よりも1年前の年に属するエントリを選択する。そして、認識文法作成部110は、選択されたエントリの識別子401に登録された識別子及び読み404に登録された読み方を取得する。そして、認識文法作成部110は、取得された読み方及び識別子を、変数($visited_lastyear)に登録する。
Specifically, the recognition
なお、図14に示す認識文法では、訪問時期が先月及び去年であるが、訪問時期は2年前、2か月前、3週間前、及びおととい等であってもよい。 In the recognition grammar shown in FIG. 14, the visit time is last month and last year, but the visit time may be two years ago, two months ago, three weeks ago, and ototo.
図15は、本発明の第3実施形態の認識文法作成部110によって実行される認識文法作成処理のフローチャートである。
FIG. 15 is a flowchart of a recognition grammar creation process executed by the recognition
なお、図11に示す本発明の第2実施形態の認識文法作成部110によって実行される認識文法作成処理と同じ処理は、図11と同じ符号を付与し、説明を省略する。
Note that the same processing as the recognition grammar creation processing executed by the recognition
S1106の処理の実行後、認識文法作成部110は、訪問履歴リスト400の最終訪問日402に登録された年月日を参照し、各訪問時期に属するエントリを選択する。そして、認識文法作成部110は、選択されたエントリの識別子401に登録された識別子及び読み404に登録された読み方を取得する。そして、認識文法作成部110は、取得された読み方及び識別子を、各訪問時期に対応する変数(図14において、変数($visited_lastmonth)及び変数($visited_lastyear))に登録する(S1501)。
After executing the processing of S1106, the recognition
また、本実施形態では、各訪問時期(先月及び去年)が認識文法に予め登録されていたが、図16に示す訪問時期作成テーブル1600を用いて各訪問時期が自動的に登録されるようにしてもよい。 In this embodiment, each visit time (last month and last year) is registered in the recognition grammar in advance, but each visit time is automatically registered using the visit time creation table 1600 shown in FIG. May be.
図16は、本発明の第3実施形態の訪問時期作成テーブル1600の説明図である。 FIG. 16 is an explanatory diagram of a visit time creation table 1600 according to the third embodiment of this invention.
訪問時期作成テーブル1600は、訪問時期名1601、判定ロジック1602、及び読み1603を含む。
The visit time creation table 1600 includes a
訪問時期名1601には、訪問時期を示す分類するための変数が登録される。判定ロジック1602には、訪問履歴リスト400に登録された地点を各訪問時期に分類するための判定処理(図15に示すS1501の処理)を実行するプログラムの名前が登録される。
In the
具体的には、判定ロジック1602には、JavaScriptの関数名並びにJava(登録商標)のクラス名及びメソッド名が登録される。
Specifically, a JavaScript function name, a Java (registered trademark) class name, and a method name are registered in the
認識文法作成部110は、判定ロジック1602に登録されたプログラムの名前から、判定処理を実行するプログラムを呼び出す。そして、認識文法作成部110は、読み出したプログラムに、訪問履歴リスト400に登録されたすべての地点に対して、判定処理を実行させ、判定処理の戻り値が真か否かを判定する。認識文法作成部110は、判定処理の戻り値が真であると判定した場合、当該地点は訪問時期に対応する地点であると判定する。一方、認識文法作成部110は、判定処理の戻り値が偽であると判定した場合、当該地点は訪問時期に対応しない地点であると判定する。
The recognition
読み1603には、訪問時期に対応する時期を示す語彙の読み方が登録される。
In the
次に、認識文法作成部110が訪問時期作成テーブル1600を用いて認識文法を作成する処理について図14を用いて説明する。なお、訪問時期名1601に登録された変数を、変数($timing)とする。
Next, a process in which the recognition
まず、変数($timing)は、変数($target)に代入される(1401)。 First, the variable ($ timing) is assigned to the variable ($ target) (1401).
変数($timing)には、訪問時期に対応する時期を示す語彙の読み方が登録される変数($timing_yomi)、「いった」、訪問時期に対応する地点の読み方及び識別子が登録される変数($visited_timing)、及び「えいく」が登録される(1406及び1409)。 In the variable ($ timing), a variable ($ timing_yomi) in which a vocabulary reading indicating a time corresponding to the visit time is registered, a variable in which “to”, a reading of a point corresponding to the visit time and an identifier are registered ( $ Visited_timing) and “eiku” are registered (1406 and 1409).
変数($timing_yomi)には、訪問時期作成テーブル1600の読み1603に登録される読み方が登録される。 In the variable ($ timing_yomi), a reading method registered in the reading 1603 of the visit time creation table 1600 is registered.
変数($visited_timing)には、訪問時期作成テーブル1600の判定ロジック1602に登録されたプログラムの名前に基づいて、呼び出されたプログラムが判定処理を実行し、認識文法作成部110によって訪問時期に対応すると判定された地点の読み方及び識別子が登録される。
In the variable ($ visited_timing), the called program executes determination processing based on the name of the program registered in the
(第4実施形態)
次に、本発明の第4実施形態を図17を用いて説明する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described with reference to FIG.
第4実施形態の認識文法作成部110を中心とした各種情報の入出力は、第1実施形態の図5と同じなので説明を省略する。
The input / output of various types of information centering on the recognition
第4実施形態の認識文法作成部110は、地点情報リスト300のnearby305にtrueが登録されている地点が訪問済みの地点であっても、当該nearby305にtrueが登録されている地点を、訪問済みである地点の読み方及び識別子が登録される変数($visited)に登録しない。
The recognition
nearby305には、同じサービスを提供する地点であれば地点の名称は問わない地点に、trueが登録される。同じサービスを提供する地点であれば地点の名称は問わない地点とは、具体的には、コンビニエンスストア、銀行、ガソリンスタンド及び駐車場等がある。 In near 305, true is registered at a point where the name of the point does not matter as long as it is a point providing the same service. The point where the name of the point is not limited as long as it provides the same service, specifically, includes a convenience store, a bank, a gas station, and a parking lot.
例えば、コンビニエンスストアである「コンビニ相模大野駅前店」という地点が訪問履歴リスト400に登録された場合であっても、ユーザは、現在位置から近くのコンビニエンスストアであればどこでもよいので、「またコンビニ相模大野駅前店へ行く」のような語彙を発声する可能性は低い。
For example, even if a point of convenience store “Convenience store Sagami-Oono station square store” is registered in the
本実施形形態では、同じサービスを提供する地点であれば地点の名称は問わない地点が、訪問済みである地点の読み方及び識別子が登録される変数($visited)に登録されない。このため、ユーザが発声する可能性の低い語彙を、認識対象から外すことができ、音声認識部109の誤認識を防止できる。
In the present embodiment, a point that does not matter the name of the point as long as it provides the same service is not registered in the variable ($ vised) in which the reading and identifier of the visited point are registered. For this reason, vocabulary that is unlikely to be spoken by the user can be excluded from recognition targets, and erroneous recognition of the
図17は、本発明の第4実施形態の認識文法作成部110によって実行される認識文法作成処理のフローチャートである。
FIG. 17 is a flowchart of a recognition grammar creation process executed by the recognition
第4実施形態の認識文法作成処理のうち、第1実施形態の認識文法作成処理(図8)と同じ処理については、同じ番号を付与し、説明を省略する。 Of the recognition grammar creation processing of the fourth embodiment, the same processing as that of the recognition grammar creation processing (FIG. 8) of the first embodiment is assigned the same number, and description thereof is omitted.
S802の処理の実行後、認識文法作成部110は、S802の処理で取得された訪問履歴リスト400に登録される地点のうち、nearby305にfalseが登録されている地点の読み方及び識別子を、図6に示す認識文法の変数($visited)に登録する(S1701)。
After executing the processing of S802, the recognition
具体的には、認識文法作成部110は、S802の処理で取得された訪問履歴リスト400の識別子401に登録されるすべての識別子を取得する。そして、認識文法作成部110は、地点情報リスト300を参照し、地点情報リスト300の識別子301に登録される識別子が、取得された訪問履歴リスト400の識別子401に登録される識別子と一致するエントリを取得する。
Specifically, the recognition
そして、認識文法作成部110は、取得されたエントリを参照し、nearby305にfalseが登録されているか否かを判定する。次に、認識文法作成部110は、nearby305にfalseが登録されているエントリの識別子301に登録された識別子及び読み303に登録された読み方を図6に示す認識文法の変数($visited)に登録する。
Then, the recognition
これによって、認識文法作成部110は、訪問済みの地点のうち、nearby305にfalseが登録された地点の読み方及び識別子を、変数($visited)に登録できる。つまり、nearby305にtrueが登録された地点(同じサービスを提供する地点であれば地点の名称は問わない地点)を、訪問済みの地点の目的地設定対象から削除できる。
As a result, the recognition
なお、訪問履歴リスト400には地点が登録されていない場合もあり、認識文法作成部110は、S802の処理で訪問履歴リスト400を読み込んだ後、読み込んだ認識文法に一つ以上の地点が登録されているか否かを判定する必要がある。また、S801の処理とS802の処理との実行順序は、入れ替わってもよい。
Note that there may be cases where no points are registered in the
なお、第4実施形態では、同じサービスを提供する地点であれば地点の名称は問わない地点が、訪問済みの地点であっても、認識文法の変数($visited)に登録されないようにした。しかし、ユーザが、同じサービスを提供する地点であれば地点の名称は問わない地点を訪問したとしても、当該地点を訪問履歴リスト400に登録しないようにしてもよい。
In the fourth embodiment, the point where the name of the point does not matter if it is a point providing the same service is not registered in the recognition grammar variable ($ vised) even if the point has been visited. However, even if the user visits a spot where the name of the spot does not matter as long as the user provides the same service, the spot may not be registered in the
具体的には、訪問履歴管理部112は、訪問済みと判定した地点のnearby305にfalseが登録されているか否かを判定する。そして、訪問履歴管理部112は、nearby305にfalseが登録されている地点のみを、訪問履歴リスト400に登録する。
Specifically, the visit
(第5実施形態)
次に、本発明の第5実施形態を図18〜図20を用いて説明する。
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described with reference to FIGS.
第5実施形態は、目的地入力装置1800が遷移する各シナリオに、各シナリオに対応する認識文法が設定される。
In the fifth embodiment, a recognition grammar corresponding to each scenario is set for each scenario to which the
図18は、本発明の第5実施形態の目的地入力装置1800の構成を示すブロック図である。なお、目的地入力装置1800の構成のうち、第1実施形態の目的地入力装置100と同じ構成については、同じ番号を付与し、説明を省略する。
FIG. 18 is a block diagram showing a configuration of a
目的地入力装置1800は、GPS受信機101、自律航法センサ102、ディスプレイ103、マイク104、A/Dコンバータ105、HDD106、地図情報読込部107、経路探索部108、音声認識部109、認識文法作成部110、地点情報記憶部111、訪問履歴管理部112、訪問履歴記憶部113、目的地記憶部114、状態遷移制御部1801、認識文法記憶部1802、シナリオ記憶部1803、及び認識文法選択部1804を備える。
The
状態遷移制御部1801は、図20に示すシナリオに基づいて、目的地入力装置1800の状態を遷移させる。
The state
目的地入力装置1800の状態は、目的地入力装置1800に備わるディスプレイ103に表示される画面の状態である。なお、遷移する画面の状態毎に、ユーザが行うことができる操作及び音声認識部109が音声認識に用いる認識文法が異なる。
The state of the
認識文法記憶部1802には、認識文法作成部110によって作成された認識文法が記憶される。
The recognition
シナリオ記憶部1803には、目的地入力装置1800の状態を遷移させるためのシナリオが記憶される。なお、シナリオ記憶部1803に記憶されるシナリオは、図20で詳細を説明する。
The
認識文法選択部1804は、現在の目的地入力装置1800の状態に対応する認識文法を選択する。
The recognition
図19は、本発明の第5実施形態の認識文法作成部110を中心とした各種情報の入出力の説明図である。なお、第5実施形態の認識文法作成部110を中心とした各種情報の入出力のうち、第2実施形態の認識文法作成部110を中心とした各種情報の入出力と同じ部分は、説明を省略する。
FIG. 19 is an explanatory diagram of input / output of various types of information centering on the recognition
状態遷移制御部1801は、シナリオ記憶部1803に記憶されたシナリオに基づいて、目的地入力装置1800の状態を遷移させる。状態遷移制御部1801は、遷移させた目的地入力装置1800の状態を、認識文法選択部1804に通知する。
The state
一方、認識文法作成部110は、作成した認識文法を、認識文法記憶部1802に記憶する。
On the other hand, the recognition
認識文法選択部1804は、遷移させた目的地入力装置1800の状態を状態遷移制御部1801から通知された場合、認識文法記憶部1802に記憶された認識文法から、通知された目的地入力装置1800の状態に対応する認識文法を選択する。そして、認識文法選択部1804は、選択した認識文法を音声認識部109に通知する。
When notified from the state
音声認識部109は、A/Dコンバータ105によってデジタル信号に変換された音声信号を受信した場合、認識文法選択部1804によって通知された認識文法を用いて、音声認識を実行する。
When the
図20は、本発明の第5実施形態の目的地入力装置1800の状態を遷移させるシナリオの説明図である。
FIG. 20 is an explanatory diagram of a scenario for changing the state of the
図20に示すシナリオでは、目的地入力装置1800が遷移し得る3つの状態が記述される。3つの状態は、トップメニュー(2001)、目的地設定状態(2002)及び目的地履歴状態(2003)である。
In the scenario shown in FIG. 20, three states in which the
まず、トップメニューについて説明する。 First, the top menu will be described.
目的地入力装置1800の状態がトップメニューである場合、認識文法選択部1804は、音声認識対象となる変数として、認識文法(command)及び認識文法(visited)を選択する(2004及び2005)。
When the
認識文法(command)には、目的地入力装置1800の状態が、トップメニューから遷移する各状態の読み方が登録されている。本実施形態では、認識文法(command)には、目的地設定状態の読み方である「もくてきちせってい」及び目的地履歴状態の読み方である「もくてきちりれき」が登録されている。
In the recognition grammar (command), the reading of each state in which the state of the
また、認識文法(visited)には、第1実施形態の図6に示す変数($again)と同じく、訪問済みであることを示す語彙の読み方、訪問済みの地点の読み方及び訪問済みの地点の識別子が登録される変数($visited)、並びに「えいく」が予め登録されている。 In addition, the recognition grammar (visited) includes, as in the variable ($ again) shown in FIG. 6 of the first embodiment, how to read the vocabulary indicating visited, how to read the visited point, and the visited point. A variable ($ vised) in which an identifier is registered, and “eiku” are registered in advance.
また、変数($visited)には、訪問済み地点の読み方及び訪問済み地点の識別子が登録されている。 Also, in the variable ($ vised), the reading of the visited point and the identifier of the visited point are registered.
したがって、目的地入力装置1800の状態がトップメニューである場合、音声認識部109は、音声認識の対象は、遷移先を指定するコマンド及び訪問済みの地点のみである。
Therefore, when the state of the
また、音声認識部109が、入力された音声が遷移先を指定するコマンド(つまり、「もくてきちせってい」又は「もくてきちりれき」)であると認識した場合、目的地入力装置1800は、目的地入力装置1800の状態を、目的地設定状態(ID:“SearchDestination”)又は目的地履歴状態(ID:“VisitedDestination”)に遷移させる(2006及び2007)。
Further, when the
次に、目的地設定状態について説明する。 Next, the destination setting state will be described.
目的地入力装置1800の状態が目的地設定状態である場合、認識文法選択部1804は、認識文法(visited)、認識文法(novisited)、及び認識文法(command_subset)を選択する(2008〜2010)。
When the
認識文法(visited)は、トップメニューの認識文法(visited)と同じであるので、説明を省略する。 Since the recognition grammar (visited) is the same as the recognition grammar (visited) of the top menu, description thereof is omitted.
認識文法(novisited)には、第2実施形態の図10に示す変数($first)と同じく、未訪問であることを示す語彙の読み方、未訪問の地点の読み方が登録される変数($novisited)、及び「えいく」が予め登録されている。変数($novisited)には、未訪問の地点の読み方が登録される。 Similar to the variable ($ first) shown in FIG. 10 of the second embodiment, the recognition grammar (novisited) is a variable ($ novised) for registering how to read a vocabulary indicating unvisited and how to read an unvisited point. ) And “Eiku” are registered in advance. In the variable ($ novised), how to read an unvisited point is registered.
認識文法(command_subset)には、目的地入力装置1800の状態をトップメニューに戻すことを指定するコマンドの読み方が登録される。なお、目的地入力装置1800の状態をトップメニューに戻すことを指定するコマンドの読み方としては、例えば、「もどる」及び「トップメニューへ戻る」等が登録される。
In the recognition grammar (command_subset), how to read a command specifying that the state of the
したがって、目的地入力装置1800の状態が目的地設定状態である場合、音声認識の対象は、訪問済みの地点及び未訪問の地点(つまり地点情報リスト300に登録されているすべての地点)、並びにトップメニューへ戻るコマンドである。
Therefore, when the
次に、目的地履歴状態について説明する。 Next, the destination history state will be described.
目的地入力装置1800の状態が目的地履歴状態である場合、認識文法選択部1804は、認識文法(visited)及び認識文法(command_subset)を選択する(2011及び2012)。
When the
認識文法(visited)は、トップメニューの認識文法(visited)と同じであるので、説明を省略する。認識文法(command_subset)は、目的地設定状態の認識文法(command_subset)と同じであるので、説明を省略する。 Since the recognition grammar (visited) is the same as the recognition grammar (visited) of the top menu, description thereof is omitted. Since the recognition grammar (command_subset) is the same as the recognition grammar (command_subset) in the destination setting state, the description is omitted.
なお、本実施形態では、目的地入力装置1800の状態の遷移は、ディスプレイ103に表示される画面の遷移であるとしたが、必ずしも画面の遷移である必要はない。例えば、目的地入力装置1800の状態の遷移は、目的地入力装置1800の内部状態の遷移であってもよい。例えば、目的地入力装置1800の内部状態は、目的地入力装置1800を搭載した車両が走行中である場合と停車中である場合とで遷移する。
In the present embodiment, the state transition of the
また、目的地入力装置1800の状態が遷移する契機としては、ユーザがディスプレイ103に表示される画面を操作すること、ユーザが目的地入力装置1800用のリモコンを操作すること、及びユーザがコマンドの音声を入力すること等がある。
In addition, as a trigger for the state of the
本実施形態によれば、目的地入力装置1800は、各状態に対して対応する認識文法が選択されるので、ユーザが意図しない誤動作を防止できる。
According to the present embodiment, the
例えば、目的地入力装置1800を搭載した車両が走行中である場合に、認識文法(visited)のみを設定し、認識文法(novisited)を設定しなければ、車両の走行中は、訪問済みの地点のみを目的地設定しない。これによって、ユーザは、車両の走行中には、ユーザの記憶にある訪問済みの地点しか目的地として設定できず、ガイドブック及び地図等を見て、未訪問の地点を目的地として設定できないので、ユーザの安全性を向上させることができる。
For example, when a vehicle equipped with the
(第6実施形態)
本発明の第6実施形態を図21〜図23を用いて説明する。
(Sixth embodiment)
A sixth embodiment of the present invention will be described with reference to FIGS.
第6実施形態は、第1〜5実施形態の目的地入力システムを開発するための目的地入力システム開発装置2100に関する。 The sixth embodiment relates to a destination input system development device 2100 for developing the destination input system of the first to fifth embodiments.
図21は、本発明の第6実施形態の目的地入力システム開発装置2100の構成を示すブロック図である。 FIG. 21 is a block diagram illustrating a configuration of a destination input system development device 2100 according to the sixth embodiment of this invention.
目的地入力システム開発装置2100は、システム制御部2101、擬似認識部2102、キーボード2103、ディスプレイ2104、マイク104、A/Dコンバータ105、HDD106、状態遷移制御部1801、音声認識部109、認識文法作成部110、地点情報記憶部111、訪問履歴編集部2105、訪問履歴記憶部113、認識文法選択部1804、認識文法記憶部1802、シナリオ記憶部1803、及びシナリオ編集部2106を備える。なお、第1実施形態及び第5実施形態の目的地入力装置と同じ構成は、同じ番号を付与し、説明を省略する。
The destination input system development device 2100 includes a
システム制御部2101は、図示しないCPU、ROM、RAM及びデータバスを備える。
The
擬似認識部2102は、キーボード2103によって入力された情報と、認識文法選択部2116によって選択された認識文法とを比較することによって、キーボード2103によって入力された情報を認識する。
The
ディスプレイ2104は、図23に示す編集画面等を表示する。訪問履歴編集部2105は、ユーザによって指定された地点を訪問済みの地点として編集する。なお、図1に示す訪問履歴管理部112は、エンドユーザによって設定された目的地及び実際の移動に連動して、訪問履歴リスト400を管理するのに対して、訪問履歴編集部2105は、開発者等のユーザが訪問履歴リスト400を直接編集する。
The
シナリオ編集部2106は、シナリオ記憶部1803に記憶されたシナリオを読み出し、読み出したシナリオをユーザに編集させ、編集されたシナリオをシナリオ記憶部1803に記憶する。
The
図22は、本発明の第6実施形態の認識文法作成部110を中心とした各種情報の入出力の説明図である。なお、図22では、第5実施形態の図19に示す各種情報の入出力と同じ箇所については、同一の符号を付与し、説明を省略する。
FIG. 22 is an explanatory diagram of input / output of various information centered on the recognition
擬似認識部2102は、ユーザによってキーボード2103を介して入力された情報と、認識文法選択部1804から通知された認識文法とを比較し、入力された情報を認識する。そして、擬似認識部2102は、認識した情報の読み記号列及び意味構造体をシステム制御部2101に出力する。
The
シナリオ編集部2106は、シナリオ記憶部1803に記憶されているシナリオを編集可能である。
The
訪問履歴編集部2105は、地点情報記憶部111に記憶されている地点情報リスト300を読み出し、読み出した地点情報リスト300を参照し、訪問履歴記憶部113に記憶されている訪問履歴リスト400を編集可能である。
The visit
図23は、本発明の第6実施形態の編集画面2300の説明図である。
FIG. 23 is an explanatory diagram of an
編集画面2300は、シナリオエディタ2301、訪問履歴エディタ2302、ユーザ発声入力2303、及び認識文法リスト2304を含む。
The
シナリオエディタ2301は、ユーザがシナリオ記憶部1803に記憶されているシナリオを編集するための表示部である。具体的には、シナリオエディタ2301には、目的地入力装置の状態の遷移及び各状態に設定されている認識文法が表示される。
The
例えば、図23に示すシナリオエディタ2301では、「TopMenu」状態から、「SearchDestination」状態又は「VisitedDestination」状態へ遷移することは表示されている。
For example, in the
また、「TopMenu」状態には、認識文法「command」及び認識文法「visited」が設定され、「SearchDestination」状態には、認識文法「command_subset」、認識文法「visited」、及び認識文法「novisited」が設定され、「VisitedDestination」状態には、認識文法「command_subset」及び認識文法「visited」が設定される。 In the “TopMenu” state, the recognition grammar “command” and the recognition grammar “visited” are set, and in the “SearchDestination” state, the recognition grammar “command_subset”, the recognition grammar “visited”, and the recognition grammar “novised” are set. The recognition grammar “command_subset” and the recognition grammar “visited” are set in the “Visitated Destination” state.
また、目的地入力装置の状態の遷移がシナリオエディタ2301に表示されることによって、目的地入力システム開発装置2100は、目的地入力装置の状態が遷移する場合のシミュレーションも実現できる。
In addition, by displaying the state transition of the destination input device on the
例えば、目的地入力装置の状態が「TopMenu」状態である場合、目的地入力システム開発装置2100の音声認識部109又は擬似認識部2102が、入力された音声又はテキスト情報を、認識文法「command」と比較する。音声認識部109又は擬似認識部2102は、入力された音声又はテキスト情報が「目的地履歴」又は「目的地設定」と一致すると判定した場合、一致すると判定した「目的地履歴」又は「目的地設定」を示す値を意味構造体として、状態遷移制御部1801に出力する。
For example, when the destination input device is in the “TopMenu” state, the
そして、状態遷移制御部1801は、意味構造体として出力された値に応じて、遷移先を決定し、決定した状態に設定された認識文法を用いて、音声認識又は擬似認識を実行する。具体的には、状態遷移制御部1801は、「目的地履歴」を示す値が出力された場合には、遷移先を「SearchDestination」状態に決定する。
Then, the state
そして、目的地入力システム開発装置2100は、目的地入力装置の状態が遷移する際に、状態遷移時に対応する画面を表示し、ガイダンス音声を図示しないスピーカから出力することによって、より目的地入力システムに近いシミュレーションを実行できる。 Then, the destination input system development device 2100 displays a screen corresponding to the state transition when the state of the destination input device transitions, and outputs guidance voice from a speaker (not shown), thereby further improving the destination input system. Simulation close to.
なお、ユーザは、シナリオエディタ2301に表示される各状態に設定されている認識文法を、変更、追加、又は削除すると、シナリオ編集部2106は、シナリオ記憶部1803に記憶されているシナリオを変更、追加、又は削除する。
When the user changes, adds, or deletes the recognition grammar set in each state displayed in the
ユーザは、各状態に設定されている認識文法を変更又は追加する場合、変更先の認識文法及び追加する認識文法を、認識文法リスト2304に表示されている認識文法の中から選択する。
When changing or adding the recognition grammar set in each state, the user selects the recognition grammar to be changed and the recognition grammar to be added from the recognition grammars displayed in the
これによって、作成されていない認識文法が変更先の認識文法及び追加する認識文法となるエラーを防止できる。 Thus, it is possible to prevent an error in which a recognition grammar that has not been created becomes a recognition grammar to be changed and a recognition grammar to be added.
訪問履歴エディタ2302には、訪問履歴リスト400に登録されている地点が表示される。具体的には、訪問履歴エディタ2302には、訪問履歴リスト400に登録されている地点の施設名、最終訪問及び回数が表示される。
The
施設名には、地点情報リスト300の識別子301に登録される識別子のうち、訪問履歴リスト400の識別子401に登録されている識別子と一致する識別子のエントリに含まれる施設名302に登録されている地点の名称が表示される。
In the facility name, among the identifiers registered in the
最終訪問日には、訪問履歴リスト400の最終訪問日402に登録された年月日が表示される。回数には、訪問履歴リスト400の訪問回数403に登録された回数が表示される。
In the last visit date, the date registered in the
なお、ユーザは、訪問履歴エディタ2302に表示された各エントリをキーボード2103により変更、追加、又は削除すると、訪問履歴編集部2105は、訪問履歴記憶部113に記憶されている訪問履歴リスト400を変更、追加、又は削除する。
When the user changes, adds, or deletes each entry displayed on the
ユーザ発声入力2303には、ユーザが音声を発声する代わりに、音声で発声しようとしていた語彙の読み方の文字列をキーボード2103を介して入力する。
In the
そして、擬似認識部2102は、ユーザによって入力された語彙の読み方の文字列と、認識文法に登録された語彙の読み方の文字列とを比較する。そして、擬似認識部2102は、認識文法に登録された語彙の読み方の文字列のうち、ユーザによって入力された語彙の読み方の文字列と一致する文字列が存在するか否かを判定する。
Then, the
認識文法リスト2304には、各状態に設定可能な認識文法が表示される。
The
本発明は、ユーザによって入力された音声を用いて目的地を設定するカーナビゲーションシステム、PND(Personal Navigation Device)、並びに携帯機器(携帯電話、PDA、及び携帯型ゲーム機等)のナビゲーションアプリケーション等に利用できる。 The present invention is applied to a navigation application for a car navigation system, a PND (Personal Navigation Device), and a portable device (such as a cellular phone, a PDA, and a portable game machine) that set a destination using voice input by a user. Available.
100 目的地入力装置
101 GPS受信機
102 自律航法センサ
103 ディスプレイ
104 マイク
105 A/Dコンバータ
106 HDD
107 地図情報読込部
108 経路探索部
109 音声認識部
110 認識文法作成部
111 地点情報記憶部
112 訪問履歴管理部
113 訪問履歴記憶部
114 目的地記憶部
115 通信部
199 システム制御部
300 地点情報リスト
400 訪問履歴リスト
1600 訪問時期作成テーブル
1800 目的地入力装置
1801 状態遷移制御部
1802 認識文法記憶部
1803 シナリオ記憶部
1804 認識文法選択部
2100 目的地入力システム開発装置
2101 システム制御部
2102 擬似認識部
2103 キーボード
2104 ディスプレイ
2105 訪問履歴編集部
2106 シナリオ編集部
2116 認識文法選択部
2300 編集画面
2301 シナリオエディタ
2302 訪問履歴エディタ
2303 ユーザ発声入力
2304 認識文法リスト
100
107 Map
Claims (20)
前記音声認識装置は、
以前に訪問したことがある訪問済み地点の情報が登録された訪問履歴リストを有し、
訪問済みであることを意味する語彙と前記訪問履歴リストに登録された訪問済み地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成し、
前記入力された音声と前記作成された認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識することを特徴とする音声認識装置。 In the speech recognition apparatus for recognizing a point indicated by the input voice by comparing the input voice and a recognition grammar for information on one or more points as a speech recognition target,
The voice recognition device
It has a visit history list with information on visited places that have been visited before,
Creating a recognition grammar that includes a visited speech recognition target that links a vocabulary meaning that it has been visited and information on visited points registered in the visit history list;
A speech recognition apparatus that recognizes a point indicated by the input speech by comparing the input speech with a speech recognition target included in the created recognition grammar.
複数の地点の情報が登録された地点情報リストを有し、
前記地点情報リストに登録された地点の情報から、前記訪問履歴リストに登録された訪問済みの地点の情報を除外することによって、未だ訪問していない未訪問地点の情報を取得し、
前記取得した未訪問地点の情報を未訪問音声認識対象として前記認識文法に含め、
前記入力された音声と前記認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識することを特徴とする請求項1に記載の音声認識装置。 The voice recognition device
It has a point information list in which information on multiple points is registered,
From the information of the points registered in the point information list, by excluding the information of the visited points registered in the visit history list, to acquire the information of the unvisited points not yet visited,
Include the information of the acquired unvisited point in the recognition grammar as an unvisited speech recognition target,
The speech recognition apparatus according to claim 1, wherein a point indicated by the input speech is recognized by comparing the input speech with a speech recognition target included in the recognition grammar.
前記訪問済み音声認識対象の前記訪問済み地点を、訪問時期によって分類し、
前記訪問時期を特定可能な語彙と前記訪問時期に対応する訪問済みの地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成することを特徴とする請求項1に記載の音声認識装置。 The voice recognition device
Classifying the visited points of the visited speech recognition target according to the visit time;
The speech recognition according to claim 1, wherein a recognition grammar including a visited speech recognition target is created by connecting a vocabulary that can specify the visit time and information on a visited point corresponding to the visit time. apparatus.
前記訪問済み音声認識対象から除外する除外地点が予め登録され、
前記除外地点を訪問した場合であっても、前記登録された除外地点を参照し、前記訪問した除外地点を前記訪問済み音声認識対象に含めないことを特徴とする請求項1に記載の音声認識装置。 The voice recognition device
Excluded points to be excluded from the visited speech recognition target are registered in advance,
The speech recognition according to claim 1, wherein even when the exclusion point is visited, the registered exclusion point is referred to and the visited exclusion point is not included in the visited speech recognition target. apparatus.
前記音声認識装置は、
前記入力された音声との比較に用いる音声認識対象が異なる複数の状態、及び前記各状態と前記比較に用いる音声認識対象とを対応付けるシナリオを有し、
前記複数の状態間において状態を遷移させ、
前記シナリオに基づいて、前記遷移した状態に対応する音声認識対象を選択し、
前記選択された音声認識対象を含む認識文法を作成し、
前記入力された音声と前記音声認識装置の状態に対応する音声認識対象とを比較することによって、前記入力された音声が示す地点を認識することを特徴とする請求項1に記載の音声認識装置。 The recognition grammar includes a plurality of speech recognition objects,
The voice recognition device
A plurality of states with different speech recognition targets used for comparison with the input speech, and a scenario for associating each state with the speech recognition target used for the comparison,
Transitioning states between the plurality of states;
Based on the scenario, select a speech recognition target corresponding to the transitioned state,
Creating a recognition grammar including the selected speech recognition target;
The speech recognition device according to claim 1, wherein a point indicated by the input speech is recognized by comparing the input speech with a speech recognition target corresponding to a state of the speech recognition device. .
前記音声認識装置は、前記訪問履歴リストに登録された訪問済み地点の情報が変更された場合に、前記変更された訪問履歴リストに基づいて、前記訪問済み音声認識対象を変更することを特徴とする請求項1に記載の音声認識装置。 The information of the visited points registered in the visit history list can be changed,
The speech recognition device is configured to change the visited speech recognition target based on the changed visit history list when the information on the visited points registered in the visit history list is changed. The speech recognition apparatus according to claim 1.
前記ナビゲーション装置は、
以前に訪問したことがある訪問済み地点の情報を登録された訪問履歴リストを有し、
音声の入力を受け付け、
訪問済みであることを意味する語彙と前記訪問履歴リストに登録された訪問済み地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成し、
前記入力された音声と前記作成された認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識し、
前記ナビゲーション装置の現在地から前記認識した地点までの経路を案内することを特徴とするナビゲーション装置。 In a navigation device that guides the route to a set point,
The navigation device includes:
It has a visit history list with information on visited places that have been visited before,
Accept voice input,
Creating a recognition grammar that includes a visited speech recognition target that links a vocabulary meaning that it has been visited and information on visited points registered in the visit history list;
Recognizing a point indicated by the input voice by comparing the input voice and a voice recognition target included in the created recognition grammar;
A navigation device for guiding a route from the current location of the navigation device to the recognized point.
複数の地点の情報が登録された地点情報リストを有し、
前記訪問履歴リストを参照し、前記地点情報リストに登録された地点の情報のうち、未だ訪問していない未訪問地点の情報を取得し、
前記訪問済み音声認識対象を含む認識文法に、前記取得された未訪問地点の情報を、未訪問音声認識対象として含め、
前記入力された音声と前記作成された認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識することを特徴とする請求項10に記載のナビゲーション装置。 The navigation device includes:
It has a point information list in which information on multiple points is registered,
With reference to the visit history list, among the information of points registered in the point information list, obtain information of unvisited points that have not yet been visited,
In the recognition grammar including the visited speech recognition target, the information on the acquired unvisited point is included as an unvisited speech recognition target,
The navigation apparatus according to claim 10, wherein the point indicated by the input voice is recognized by comparing the input voice with a voice recognition target included in the created recognition grammar.
前記訪問済み音声認識対象の前記訪問済み地点を、訪問時期によって分類し、
前記訪問時期を特定可能な語彙と前記訪問時期に対応する訪問済みの地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成することを特徴とする請求項10に記載のナビゲーション装置。 The navigation device includes:
Classifying the visited points of the visited speech recognition target according to the visit time;
11. The navigation apparatus according to claim 10, wherein a recognition grammar including a visited speech recognition target is generated by connecting a vocabulary that can specify the visit time and information on a visited point corresponding to the visit time. .
前記訪問済み音声認識対象から除外する除外地点が予め登録され、
前記除外地点を訪問した場合であっても、前記登録された除外地点を参照し、前記訪問した除外地点を前記訪問済み音声認識対象に含めないことを特徴とする請求項10に記載のナビゲーション装置。 The navigation device includes:
Excluded points to be excluded from the visited speech recognition target are registered in advance,
11. The navigation device according to claim 10, wherein, even when the exclusion point is visited, the registered exclusion point is referred to and the visited exclusion point is not included in the visited speech recognition target. .
前記ナビゲーション装置は、
前記入力された音声との比較に用いる音声認識対象が異なる複数の状態、前記各状態と前記比較に用いる音声認識対象とを対応付けるシナリオを有し、
前記複数の状態間において状態を遷移させ、
前記シナリオに基づいて、前記遷移した状態に対応する音声認識対象を選択し、
前記選択された音声認識対象を含む認識文法を作成し、
前記入力された音声と前記ナビゲーション装置の状態に対応する音声認識対象とを比較することによって、前記入力された音声が示す地点を認識することを特徴とする請求項10に記載のナビゲーション装置。 The recognition grammar includes a plurality of speech recognition objects,
The navigation device includes:
A plurality of states with different speech recognition targets used for comparison with the input speech, a scenario for associating each state with the speech recognition target used for the comparison,
Transitioning states between the plurality of states;
Based on the scenario, select a speech recognition target corresponding to the transitioned state,
Creating a recognition grammar including the selected speech recognition target;
The navigation device according to claim 10, wherein the point indicated by the input voice is recognized by comparing the input voice and a voice recognition target corresponding to the state of the navigation device.
前記ナビゲーション装置は、前記訪問履歴リストに登録された訪問済み地点の情報が変更された場合に、前記変更された訪問履歴リストに基づいて、前記訪問済み音声認識対象を変更することを特徴とする請求項10に記載のナビゲーション装置。 The information of the visited points registered in the visit history list can be changed,
The navigation device is configured to change the visited speech recognition target based on the changed visit history list when the information on the visited points registered in the visit history list is changed. The navigation device according to claim 10.
前記プログラムは、前記音声認識装置に、
音声の入力を受け付けさせ、
以前に訪問したことがある訪問済み地点の情報を訪問履歴リストに登録させ、
訪問済みであることを意味する語彙と前記訪問履歴リストに登録された訪問済み地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成させ、
前記入力された音声と前記作成された認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識させることを特徴とするプログラム。 The speech recognition apparatus for recognizing the input speech recognizes the point indicated by the input speech by comparing the input speech with a recognition grammar for information on one or more points as a speech recognition target. A program to
The program is stored in the voice recognition device.
Accept voice input,
Register your visited history information in the visit history list,
Creating a recognition grammar that includes a visited speech recognition target that links a vocabulary that means having been visited and information on visited points registered in the visit history list;
A program for recognizing a point indicated by the input voice by comparing the input voice with a voice recognition target included in the created recognition grammar.
前記プログラムは、前記音声認識装置に、
前記訪問履歴リストを参照させ、前記地点情報リストに登録された地点の情報のうち、未だ訪問していない未訪問地点の情報を取得させ、
前記訪問済み音声認識対象を含む認識文法に、前記取得させた未訪問地点の情報を、未訪問音声認識対象として含めさせ、
前記入力された音声と前記認識文法に含まれる音声認識対象とを比較することによって、前記入力された音声が示す地点を認識させることを特徴とする請求項16に記載のプログラム。 The voice recognition device has a point information list in which information of a plurality of points is registered,
The program is stored in the voice recognition device.
Refer to the visit history list, to obtain the information of the unvisited points that have not yet visited among the information of the points registered in the point information list,
The recognition grammar including the visited speech recognition target includes the acquired information on the unvisited point as an unvisited speech recognition target,
The program according to claim 16, wherein a point indicated by the input voice is recognized by comparing the input voice with a voice recognition target included in the recognition grammar.
前記訪問済み音声認識対象の前記訪問済み地点を、訪問時期によって分類させ、
前記訪問時期を特定可能な語彙と前記訪問時期に対応する訪問済みの地点の情報とを連結した訪問済み音声認識対象を含む認識文法を作成させることを特徴とする請求項16に記載のプログラム。 The program is stored in the voice recognition device.
Classifying the visited point of the visited speech recognition target according to the visit time;
17. The program according to claim 16, wherein a recognition grammar including a visited speech recognition target is generated by connecting a vocabulary that can specify the visit time and information on a visited point corresponding to the visit time.
前記音声認識装置は、前記入力された音声との比較に用いる音声認識対象が異なる複数の状態、前記各状態と前記比較に用いる音声認識対象とを対応付けるシナリオを有し、
前記プログラムは、前記音声認識装置に、
前記複数の状態間において状態を遷移させ、
前記シナリオに基づいて、前記遷移した状態に対応する音声認識対象を選択させ、
前記選択させた音声認識対象を含む認識文法を作成させ、
前記入力された音声と前記ナビゲーション装置の状態に対応する音声認識対象とを比較することによって、前記入力された音声が示す地点を認識させことを特徴とする請求項16に記載のプログラム。 The recognition grammar includes a plurality of speech recognition objects,
The speech recognition apparatus has a plurality of states in which speech recognition targets used for comparison with the input speech are different, and a scenario for associating each state with the speech recognition target used for the comparison,
The program is stored in the voice recognition device.
Transitioning states between the plurality of states;
Based on the scenario, the speech recognition target corresponding to the transitioned state is selected,
Creating a recognition grammar including the selected speech recognition target;
The program according to claim 16, wherein a point indicated by the input voice is recognized by comparing the input voice with a voice recognition target corresponding to the state of the navigation device.
前記プログラムは、前記音声認識装置に、
前記訪問履歴リストに登録された訪問済み地点の情報が変更された場合に、前記変更された訪問履歴リストに基づいて、前記訪問済み音声認識対象を変更させることを特徴とする請求項16に記載のプログラム。 The information of the visited points registered in the visit history list can be changed,
The program is stored in the voice recognition device.
17. The visited speech recognition target is changed based on the changed visit history list when information on visited points registered in the visit history list is changed. Program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008011349A JP2009175233A (en) | 2008-01-22 | 2008-01-22 | Speech recognition device, navigation device, and destination setting program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008011349A JP2009175233A (en) | 2008-01-22 | 2008-01-22 | Speech recognition device, navigation device, and destination setting program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009175233A true JP2009175233A (en) | 2009-08-06 |
Family
ID=41030432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008011349A Pending JP2009175233A (en) | 2008-01-22 | 2008-01-22 | Speech recognition device, navigation device, and destination setting program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009175233A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012137382A1 (en) * | 2011-04-07 | 2012-10-11 | クラリオン株式会社 | Wireless communication terminal and operating system |
WO2012168969A1 (en) * | 2011-06-08 | 2012-12-13 | パイオニア株式会社 | Navigation system, terminal apparatus, navigation apparatus, navigation system control method, program, and recording medium |
-
2008
- 2008-01-22 JP JP2008011349A patent/JP2009175233A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012137382A1 (en) * | 2011-04-07 | 2012-10-11 | クラリオン株式会社 | Wireless communication terminal and operating system |
JP2012222552A (en) * | 2011-04-07 | 2012-11-12 | Clarion Co Ltd | Radio communication terminal and operation system |
US9094956B2 (en) | 2011-04-07 | 2015-07-28 | Clarion Co., Ltd. | Wireless communication terminal and operating system |
WO2012168969A1 (en) * | 2011-06-08 | 2012-12-13 | パイオニア株式会社 | Navigation system, terminal apparatus, navigation apparatus, navigation system control method, program, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8949133B2 (en) | Information retrieving apparatus | |
JP5334178B2 (en) | Speech recognition apparatus and data update method | |
JP4040573B2 (en) | Speech recognition apparatus and method | |
US20080059199A1 (en) | In-vehicle apparatus | |
KR20070113665A (en) | Method and apparatus for setting destination in navigation terminal | |
US20200410992A1 (en) | Device for recognizing speech input from user and operating method thereof | |
JP4867622B2 (en) | Speech recognition apparatus and speech recognition method | |
JP4466379B2 (en) | In-vehicle speech recognition device | |
JP4967519B2 (en) | Voice recognition device | |
US7809563B2 (en) | Speech recognition based on initial sound extraction for navigation and name search | |
JP2009175233A (en) | Speech recognition device, navigation device, and destination setting program | |
JP5455355B2 (en) | Speech recognition apparatus and program | |
US20110022390A1 (en) | Speech device, speech control program, and speech control method | |
JP4822847B2 (en) | Audio conversion processor | |
KR100677711B1 (en) | Voice recognition apparatus, storage medium and navigation apparatus | |
JP2011180416A (en) | Voice synthesis device, voice synthesis method and car navigation system | |
JP2008027035A (en) | On-vehicle device | |
JP2003005783A (en) | Navigation system and its destination input method | |
KR20100126992A (en) | Address searching method using voice recognition capable of reducing number of times of command | |
JP2010038751A (en) | Navigation system | |
JP4486413B2 (en) | Voice dialogue method, voice dialogue apparatus, voice dialogue program, and recording medium recording the same | |
JPWO2006028171A1 (en) | Data presentation apparatus, data presentation method, data presentation program, and recording medium recording the program | |
JP2008152043A (en) | Speech recognition apparatus and method | |
JP4550207B2 (en) | Voice recognition device and voice recognition navigation device | |
JP4736962B2 (en) | Keyword selection method, speech recognition method, keyword selection system, and keyword selection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20090828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20090828 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20091109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20091109 |