JP2000020086A - Speech recognition apparatus, navigation system using this aperture and vending system - Google Patents

Speech recognition apparatus, navigation system using this aperture and vending system

Info

Publication number
JP2000020086A
JP2000020086A JP10186503A JP18650398A JP2000020086A JP 2000020086 A JP2000020086 A JP 2000020086A JP 10186503 A JP10186503 A JP 10186503A JP 18650398 A JP18650398 A JP 18650398A JP 2000020086 A JP2000020086 A JP 2000020086A
Authority
JP
Japan
Prior art keywords
recognition
dictionary
voice
target pattern
comparison target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10186503A
Other languages
Japanese (ja)
Other versions
JP3624698B2 (en
Inventor
Kaneyoshi Ueda
兼義 植田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP18650398A priority Critical patent/JP3624698B2/en
Publication of JP2000020086A publication Critical patent/JP2000020086A/en
Application granted granted Critical
Publication of JP3624698B2 publication Critical patent/JP3624698B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a speech recognition apparatus which prevents erroneous recognition as far as possible and is improved in operability. SOLUTION: For example, the request by a user in the state that a restaurant list is displayed may be either the assignment of the store name of the restaurant itself or the genre assignment to discriminate the genre of the restaurant further in details. Then, a recognition control section 35 acquires the state that the restaurant list is displayed from an operation control section 5. This control section, them, assigns the 'dictionary relating to the restaurant' to a dictionary management section 34. This dictionary management section 34 edits the selected dictionary extracting necessary component in accordance with the dictionary assignment from a pre-stored base dictionary and sets this dictionary in a recognition processing section 33. The five items; the prefectures, the cities, towns and villages, genre, details and conditions, are set in the base dictionary and, therefore, only the recognition vocabulary having the genre of a 'meal' is extracted in accordance with the genre among these items and the selected dictionary is set in this case.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えばナビゲーシ
ョンシステムにおける目的地の設定などを音声によって
入力できるようにする場合などに有効な音声認識装置及
びその音声認識装置を備えたナビゲーションシステム及
び自動販売システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech recognition device effective for, for example, a case where a destination setting or the like in a navigation system can be input by voice, a navigation system equipped with the speech recognition device, and a vending system. About.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】従来よ
り、入力された音声を予め記憶されている複数の比較対
象パターン候補と比較し、一致度合の高いものを認識結
果とする音声認識装置が既に実用化されており、例えば
ナビゲーションシステムにおいて設定すべき目的地を利
用者が地名を音声で入力するためなどに用いられてい
る。特に車載ナビゲーションシステムを運転手自身が利
用する場合、音声入力であればボタン操作や画面注視が
伴わないため、車両の走行中に行っても安全性が高いた
め有効である。
2. Description of the Related Art Conventionally, there has been proposed a speech recognition apparatus which compares an inputted speech with a plurality of pattern candidates to be compared which are stored in advance and determines a speech having a high degree of coincidence as a recognition result. It has already been put into practical use, and is used, for example, for a user to input a destination name to be set in a navigation system by voice. In particular, when the driver uses the in-vehicle navigation system, voice input does not involve button operation or screen gaze, so that it is effective because the safety is high even when the vehicle is running.

【0003】しかしながら、現在の認識技術ではその認
識結果が完全に正しいものとは限らず、ある程度の誤認
識が生じることは仕方がない。そのため、誤認識が発生
した場合には、再度音声認識自体をやり直す必要があ
り、利用者の望む結果を得るまでに相当の時間や手間を
要することも考えられる。このような点から誤認識を極
力防止する工夫が期待される。
[0003] However, in the current recognition technology, the recognition result is not always correct, and it is inevitable that some degree of erroneous recognition will occur. Therefore, when erroneous recognition occurs, it is necessary to redo speech recognition itself, and it may be necessary to take considerable time and effort to obtain a result desired by the user. From such a point, a device for minimizing erroneous recognition is expected.

【0004】そこで本発明は、このような問題を解決
し、誤認識を極力防止して使い勝手をより向上させた音
声認識装置を提供することを目的とする。そして、その
音声認識装置を用いたナビゲーションシステム及び自動
販売システムを提供することも目的とする。
Accordingly, an object of the present invention is to provide a speech recognition apparatus which solves such a problem and prevents erroneous recognition as much as possible, thereby improving usability. It is another object of the present invention to provide a navigation system and an automatic vending system using the voice recognition device.

【0005】[0005]

【課題を解決するための手段及び発明の効果】上記目的
を達成するためになされた請求項1に記載の音声認識装
置によれば、利用者が音声入力手段を介して音声を入力
すると、認識手段が、その入力された音声を予め辞書手
段に記憶されている複数の比較対象パターン候補と比較
して一致度合の高いものを認識結果とする。その際、辞
書管理手段は、前記辞書手段に対して次のような管理を
行う。つまり、認識結果を利用者の指示内容として扱う
外部装置における状態を入力し、その入力した状態に基
づき、辞書手段に記憶されている複数の比較対象パター
ン候補の内から所定のものだけを一時的に抽出し、その
抽出した比較対象パターン候補のみを認識手段における
認識の際の辞書データとして有効にする。
According to the first aspect of the present invention, there is provided a speech recognition apparatus which, when a user inputs a speech through a speech input means, recognizes the speech. The means compares the input speech with a plurality of pattern candidates to be compared previously stored in the dictionary means, and determines a speech having a high degree of coincidence as a recognition result. At this time, the dictionary management means performs the following management on the dictionary means. That is, a state in the external device that handles the recognition result as the instruction content of the user is input, and based on the input state, only a predetermined one of the plurality of comparison target pattern candidates stored in the dictionary unit is temporarily used. And only the extracted comparison target pattern candidates are validated as dictionary data for recognition by the recognition means.

【0006】上述した従来の音声認識における誤認識の
原因の一つとしては、認識に際して用いる辞書データの
内容が挙げられる。つまり、音声認識は、入力された音
声を、予め記憶されている比較対象パターン候補と比較
して一致度合の高いものを認識結果とするのであるが、
その比較対象パターン候補同士が似ていることによって
所望の比較対象パターンとは違うものが認識結果とされ
てしまうのである。この点に関して、本発明の音声認識
装置では、予め辞書手段に設定されている比較対象パタ
ーン候補であっても、前記辞書管理手段にて認識の際の
辞書データとしては有効とされなかった比較対象パター
ン候補については認識の際に比較されることがなく、当
然ながら認識結果とされることがない。このように辞書
データを絞り込むことによって誤認識の発生を極力防止
することができる。
One of the causes of the erroneous recognition in the conventional speech recognition described above is the contents of dictionary data used for recognition. In other words, in the voice recognition, the input voice is compared with a comparison target pattern candidate stored in advance, and a voice with a high degree of matching is used as a recognition result.
Since the comparison target pattern candidates are similar to each other, a pattern different from the desired comparison target pattern is determined as a recognition result. In this regard, in the voice recognition device of the present invention, even if the comparison target pattern candidate is set in the dictionary means in advance, the comparison target pattern is not validated as the dictionary data at the time of recognition by the dictionary management means. Pattern candidates are not compared at the time of recognition, and are naturally not recognized as recognition results. By narrowing down the dictionary data in this manner, occurrence of erroneous recognition can be prevented as much as possible.

【0007】そして、単に辞書データを絞り込むのでは
なく、認識結果を利用者の指示内容として扱う外部装置
における状態に基づいて絞り込んでいる。例えば請求項
2に示すように、辞書管理手段が、入力した前記外部装
置の状態にあっては利用者からの指示としてあり得ない
と考えられる比較対象パターンを認識の際の辞書データ
として無効にすることによって、それ以外のものを有効
にすることが考えられる。このようにすれば、その時点
での外部装置の状態から必要と思われる比較対象パター
ンはそのまま残って有効とされ、それ以外が辞書データ
として無効となるので、誤認識を極力防止できながら本
来認識すべき語彙についての音声認識は適切に実現する
ことができる。
[0007] The dictionary data is not simply narrowed down, but is narrowed down based on the state of an external device that handles the recognition result as the content of a user's instruction. For example, as set forth in claim 2, the dictionary management means invalidates the comparison target pattern which is considered impossible as an instruction from the user in the input state of the external device as dictionary data for recognition. By doing so, it is conceivable to make other things valid. In this way, the comparison target pattern considered necessary from the state of the external device at that time remains valid as it is, and the other patterns become invalid as dictionary data. Speech recognition for the vocabulary to be performed can be appropriately realized.

【0008】なお、上述した音声認識装置においては、
辞書データの一部のみを有効とするため、反対に無効と
された辞書データについては認識の際に全く比較対象と
されることがない。したがって、利用者からの指示とし
ての可能性は低くても、指示としてあり得る語彙につい
ては辞書データとして有効とするという考え方もある。
しかし、このような可能性の低いものまで辞書データと
して有効にしておくと、結局、辞書データ中に誤認識の
可能性のある語彙が増えることとなる。この点を鑑みる
と、請求項3に示す音声認識装置を採用することも好ま
しい。
[0008] In the above speech recognition device,
Since only a part of the dictionary data is valid, the invalidated dictionary data is not compared at all at the time of recognition. Therefore, there is a concept that a vocabulary that can be an instruction is effective as dictionary data even though the possibility of the instruction from the user is low.
However, if the data having such a low possibility is made effective as the dictionary data, the vocabulary which may be misrecognized in the dictionary data eventually increases. In view of this point, it is also preferable to employ the voice recognition device according to the third aspect.

【0009】請求項3の音声認識装置の場合には、利用
者が音声入力手段を介して音声を入力すると、認識手段
が、その入力された音声を予め辞書手段に記憶されてい
る複数の比較対象パターン候補と比較して一致度合の高
いものを認識結果とする。その際、辞書管理手段は、前
記辞書手段に対して次のような管理を行う。つまり、認
識結果を利用者の指示内容として扱う外部装置における
状態を入力し、その入力した状態に基づき、辞書手段に
記憶されている複数の比較対象パターン候補について一
時的に優先度を設定し、その設定された優先度の高い比
較対象パターン候補ほど認識手段における認識の際の辞
書データとして利用され易くするのである。例えば、請
求項4に示すように、入力した外部装置の状態において
利用者からの指示としてあり得る確率の高いと考えられ
る比較対象パターンほど認識の際の辞書データとして利
用され易くしておく事が考えられる。
In the case of the voice recognition device of the third aspect, when the user inputs voice through the voice input means, the recognition means transmits the input voice to a plurality of comparison means stored in the dictionary means in advance. Those having a higher matching degree than the target pattern candidates are regarded as recognition results. At this time, the dictionary management means performs the following management on the dictionary means. That is, a state in the external device that handles the recognition result as the instruction content of the user is input, and based on the input state, the priority is temporarily set for a plurality of comparison target pattern candidates stored in the dictionary unit, The higher the priority of the set comparison target pattern candidate, the easier it is to use as dictionary data for recognition by the recognition means. For example, as set forth in claim 4, it is possible to make the comparison target pattern considered to have a higher probability of being possible as an instruction from the user in the state of the input external device easier to be used as dictionary data for recognition. Conceivable.

【0010】このようにすれば、例えば誤認識され易い
2つの比較対象パターン候補が存在しても、一方は優先
度が高く設定され、他方が低く設定されていれば、優先
度が低く設定されている比較対象パターン候補が誤って
認識される可能性が低くなり、結果的に誤認識を極力防
止することができる。また、優先度が低く設定されてい
る比較対象パターン候補についても、優先度は低いが最
終的には認識対象としては存在しているので認識結果と
して得ることは可能である。したがって、例えば音声認
識装置としては優先度の高い比較対象パターン候補の順
に認識結果として出力したが、利用者からは所望するも
のでないため別の認識結果を出力すよう指示があると、
最終的にはその優先度の低い比較対象パターン候補が認
識結果として出力され、利用者の所望のものとなること
もできる。
In this way, for example, even if there are two comparison target pattern candidates that are likely to be erroneously recognized, one is set to have a high priority, and if the other is set to be low, the priority is set to be low. The possibility that the comparison target pattern candidate is erroneously recognized is reduced, and as a result, erroneous recognition can be prevented as much as possible. Also, a comparison target pattern candidate set with a low priority has a low priority but finally exists as a recognition target, so that it can be obtained as a recognition result. Therefore, for example, the speech recognition device outputs the recognition results in the order of the comparison target pattern candidates with the highest priority, but if the user instructs to output another recognition result because the recognition result is not desired,
Eventually, the comparison target pattern candidate having a lower priority is output as a recognition result, which can be desired by the user.

【0011】つまり、利用される/されないという完全
な二者択一で対応し切れない状況においては、優先度を
設定する手法が有効である。ところで、請求項1〜4の
いずれかに記載の音声認識装置をナビゲーションシステ
ム用として用いる場合には、請求項5に示すように構成
することが考えられる。つまり、請求項1〜4のいずれ
かに記載の音声認識装置と、ナビゲーション装置とを備
え、音声認識装置の音声入力手段を、少なくともナビゲ
ーション装置がナビゲート処理をする上で指定される必
要のある所定のナビゲート処理関連データの指示を利用
者が音声にて入力するために用いるのである。
In other words, in a situation where it is impossible to cope with the situation by completely using the option of using or not using, the method of setting the priority is effective. By the way, when the voice recognition device according to any one of claims 1 to 4 is used for a navigation system, it is conceivable to configure as shown in claim 5. In other words, the voice recognition device according to any one of claims 1 to 4 and a navigation device are provided, and the voice input means of the voice recognition device needs to be specified at least when the navigation device performs a navigation process. This is used for the user to input an instruction of predetermined navigation processing-related data by voice.

【0012】この場合の「所定のナビゲート処理関連デ
ータ」としては、目的地が代表的なものとして挙げら
れ、その目的地としては、地名そのものである場合もあ
るし、あるいは施設や店舗名などの場合もある。また、
それ以外にもルート探索に関する条件選択など、ナビゲ
ート処理をする上で指定の必要のある指示が含まれる。
目的地を施設や店舗名などで指定する場合には、データ
ベース中から条件設定して絞り込んでいくことが多い。
その場合には、例えばレストランというようなジャンル
で絞り込みを行う場合には、食事の提供場所としてあり
得ない施設や店舗名についての辞書データは無効あるい
は優先度を低く設定すればよい。特に請求項6に示すよ
うに、一般的なナビゲーション装置は表示装置に地図や
メニューを表示可能であるため、辞書管理手段が、表示
装置に表示されている内容に基づき、当該表示内容にお
いては利用者からの指示としてあり得ないと考えられる
比較対象パターンを認識の際の辞書データとして無効に
するか、あるいは優先度を低くすればよい。上述の例で
言えば、レストランのリストを表示するような画面表示
となっていれば、その状態で「地図向き変更」や「地図
尺度変更」などの地図操作を要求することは考えられな
いため、それに関連する語彙の比較対象パターン候補は
無効あるいは優先度を低くしておけばよい。
[0012] In this case, the "predetermined navigation processing-related data" is a typical destination, and the destination may be the place name itself, or a facility or store name. In some cases. Also,
In addition, instructions that need to be specified in performing the navigation process, such as selecting conditions for route search, are included.
When a destination is designated by a facility, a store name, or the like, it is often the case that conditions are set from a database and narrowed down.
In that case, for example, when narrowing down by a genre such as a restaurant, dictionary data about a facility or a store name that cannot be provided as a meal providing place may be invalidated or set to a low priority. In particular, since a general navigation device can display a map or a menu on a display device, the dictionary management means can use the display content based on the content displayed on the display device. It is only necessary to invalidate the comparison target pattern that is considered impossible as an instruction from the user as dictionary data for recognition or to lower the priority. In the above example, if the screen display shows a list of restaurants, it is not possible to request a map operation such as "change map orientation" or "change map scale" in that state. The candidate for the comparison target pattern of the vocabulary related thereto may be invalid or have a low priority.

【0013】一方、請求項1〜4のいずれかに記載の音
声認識装置を自動販売システム用として用いる場合に
は、請求項7に示すように構成することが考えられる。
つまり、請求項1〜4のいずれかに記載の音声認識装置
と、自動販売装置とを備え、音声認識装置の音声入力手
段を、少なくとも前記自動販売装置が販売対象の品物を
販売処理をする上で指定される必要のある所定の自動販
売処理関連データの指示を利用者が音声にて入力するた
めに用いる。
On the other hand, when the speech recognition device according to any one of claims 1 to 4 is used for an automatic vending system, it is conceivable that the speech recognition device is configured as shown in claim 7.
In other words, the apparatus comprises the voice recognition device according to any one of claims 1 to 4 and a vending device, and is provided with a voice input unit of the voice recognition device, at least when the vending device processes a product to be sold. This is used by a user to input an instruction of predetermined vending process-related data which needs to be specified by the user.

【0014】ここでいう自動販売装置とは、例えばたば
こや飲料水などの販売装置であり、その品物の銘柄自体
を利用者が音声にて指定すると、その指定された品物を
販売することとなる。この場合、例えば請求項8に示す
ように、音声認識装置は、自動販売装置にて理論上販売
が可能とされている全ての品物の固有名詞に関する比較
対象パターン候補を辞書手段中の辞書データとして備え
ていると共に、辞書管理手段は、自動販売装置のその時
点で実際に販売可能な品物以外の固有名詞に関する比較
対象パターン候補については、一時的に辞書データとし
て無効にするか、あるいは優先度を低くすることが考え
られる。例えばたばこの自動販売システムを考えた場
合、理論上販売が可能な全ての銘柄のたばこの固有名詞
に対応する比較対象パターン候補を辞書データとして準
備しておく。そして、自動販売装置単位で、その装置に
て実際に販売するたばこの銘柄以外の固有名詞に関する
比較対象パターン候補については、一時的に辞書データ
として無効にするか、あるいは優先度を低く設定してお
く。具体的には、自動販売装置の管理者などがマニュア
ル設定すればよい。このようにすれば、どのような銘柄
のたばこを選択して自動販売の対象とするかに応じて辞
書データを調整できるので、その自動販売装置で扱って
いない銘柄のたばこが誤認識結果とされることがなくな
る。そのため、自動販売装置の利用者にとっての使い勝
手も向上する。なお、この場合には、扱っていない銘柄
の固有名詞に関する比較対象パターン候補については、
辞書データとして無効にした方が、優先度を低くするよ
り好ましいと言える。
The automatic vending apparatus referred to here is, for example, a vending apparatus for cigarettes, drinking water, and the like. When a user specifies the brand of the product by voice, the specified product is sold. . In this case, for example, as described in claim 8, the voice recognition device uses comparison target pattern candidates relating to proper nouns of all items theoretically available for sale by the vending device as dictionary data in the dictionary means. In addition to the above, the dictionary management means temporarily disables, as dictionary data, comparison target pattern candidates relating to proper nouns other than articles that can be actually sold at the time of the vending device, or sets the priority. It is conceivable to lower it. For example, in the case of a cigarette vending system, comparison target pattern candidates corresponding to the proper nouns of cigarettes of all brands theoretically available for sale are prepared as dictionary data. Then, for each vending device, for comparison pattern candidates relating to proper nouns other than the brand of cigarettes actually sold by the device, temporarily invalidate them as dictionary data or set a low priority. deep. Specifically, the administrator of the vending apparatus may manually set. In this way, the dictionary data can be adjusted according to what brand of cigarette is selected and subject to vending, so that a cigarette of a brand not handled by the vending machine is regarded as a misrecognition result. No more. Therefore, the convenience for the user of the vending machine is improved. In this case, regarding the comparison target pattern candidates related to the proper nouns of the brands not handled,
It can be said that invalidating the dictionary data is preferable to lowering the priority.

【0015】[0015]

【発明の実施の形態】以下、本発明が適用された実施例
について図面を用いて説明する。なお、本発明の実施の
形態は、下記の実施例に何ら限定されることなく、本発
明の技術的範囲に属する限り、種々の形態を採り得るこ
とは言うまでもない。
Embodiments of the present invention will be described below with reference to the drawings. It is needless to say that the embodiments of the present invention are not limited to the following examples, and can take various forms as long as they belong to the technical scope of the present invention.

【0016】[第1実施例]図1は音声認識装置30を
適用した車載用のナビゲーションシステム1の概略構成
を示すブロック図である。本ナビゲーションシステム1
は、音声認識装置30と機構スイッチ2とリモコンスイ
ッチ3とからなる操作スイッチ部4、その操作スイッチ
部4からの操作状況などを入力し、ナビゲーションシス
テム全体の制御を行う操作制御部5、自車両現在位置を
算出するための現在位置算出部6、利用者の設定した目
的地に基づき目的地までの適切なルート(推奨ルート)
を算出する経路計算部7、経路計算部7にて計算された
推奨ルートに基づき、車両の運転を円滑に進めるために
必要な案内を音声や簡易地図などで利用者に提供する制
御処理を行う案内制御部8、地図データ検索部9、音声
出力制御部11,スピーカ12、表示制御部13及びデ
ィスプレイ14を備えている。なお操作制御部5は通常
のコンピュータとして構成されており、内部には、周知
のCPU、ROM、RAM、I/O及びこれらの構成を
接続するバスラインが備えられている。
[First Embodiment] FIG. 1 is a block diagram showing a schematic configuration of an on-vehicle navigation system 1 to which a voice recognition device 30 is applied. The present navigation system 1
Is an operation switch unit 4 including a voice recognition device 30, a mechanism switch 2, and a remote control switch 3, an operation control unit 5 for inputting operation status and the like from the operation switch unit 4 and controlling the entire navigation system, Current position calculating unit 6 for calculating the current position, an appropriate route to the destination based on the destination set by the user (recommended route)
Based on the recommended route calculated by the route calculation unit 7, a control process for providing the user with voice or a simple map or the like necessary for smoothly driving the vehicle is performed. It includes a guidance control unit 8, a map data search unit 9, an audio output control unit 11, a speaker 12, a display control unit 13, and a display 14. The operation control unit 5 is configured as a normal computer, and includes a well-known CPU, ROM, RAM, I / O, and a bus line for connecting these components.

【0017】前記現在位置算出部6は、例えばいずれも
周知のジャイロスコープ、距離センサ及び衛星からの電
波に基づいて車両の位置を検出するGPS(Global Pos
itioning System )のためのGPS受信機を有してい
る。これらのセンサ等は各々が性質の異なる誤差を持っ
ているため、複数のセンサにより、各々補間しながら使
用するように構成されている。なお、精度によっては上
述した内の一部で構成してもよく、更に、地磁気セン
サ、ステアリングの回転センサ、各転動輪の車輪センサ
等を用いてもよい。
The current position calculating unit 6 detects a vehicle position based on radio waves from a well-known gyroscope, a distance sensor, and a satellite, for example.
), and a GPS receiver for the itioning system). Since each of these sensors and the like has an error having a different property, a plurality of sensors are used while interpolating each other. It should be noted that depending on the accuracy, it may be constituted by a part of the above, and furthermore, a geomagnetic sensor, a rotation sensor for steering, a wheel sensor for each rolling wheel, or the like may be used.

【0018】地図データ検索部9は、位置検出の精度向
上のためのいわゆるマップマッチング用データ、地図デ
ータ及び目印データを含む各種データを入力するための
装置である。媒体としては、そのデータ量からCD−R
OMやDVDを用いるのが一般的であるが、メモリカー
ド等の他の媒体を用いても良い。
The map data search section 9 is a device for inputting various data including so-called map matching data, map data and landmark data for improving the accuracy of position detection. As a medium, CD-R
Generally, an OM or a DVD is used, but another medium such as a memory card may be used.

【0019】ディスプレイ14はカラーディスプレイで
あり、ディスプレイ14の画面には、現在位置算出部6
から入力された車両現在位置マークと、地図データ検索
部9より入力された地図データと、更に地図上に表示す
る誘導経路や後述する設定地点の目印等の付加データと
を重ねて表示することができる。
The display 14 is a color display.
The vehicle current position mark input from the map data, the map data input from the map data search unit 9, and additional data such as a guide route to be displayed on the map and a mark of a set point to be described later are displayed in a superimposed manner. it can.

【0020】機構スイッチ2は、例えば、ディスプレイ
14と一体になったタッチスイッチもしくはメカニカル
なスイッチ等が用いられ、経路計算のための目的地や各
種入力に使用される。また、リモコンスイッチ3を介し
ても機構スイッチ2と同じ指示入力をすることができる
ようにされている。そして、音声認識装置30は、上記
機構スイッチ2あるいはリモコンスイッチ3が手動操作
により目的地などを指示するために用いられるのに対し
て、利用者が音声で入力することによっても同様に目的
地などを指示することができるようにするための装置で
ある。なお、操作スイッチ部4としては、必ずしもこれ
ら音声認識装置30、機構スイッチ2及びリモコンスイ
ッチ3の全てを備えていなくてはならないということは
なく、どれか一つだけでも所望の指示入力は可能である
が、本実施例では利便性を考えて3つを併有するものと
する。
As the mechanism switch 2, for example, a touch switch or a mechanical switch integrated with the display 14 is used, and is used for a destination for route calculation and various inputs. Further, the same instruction input as that of the mechanism switch 2 can be input via the remote control switch 3. The voice recognition device 30 is used when the mechanism switch 2 or the remote control switch 3 is used to manually specify a destination or the like. Is a device for enabling the user to instruct the user. Note that the operation switch section 4 does not necessarily have to include all of the voice recognition device 30, the mechanism switch 2, and the remote control switch 3, and any one of them can input a desired instruction. However, in the present embodiment, it is assumed that three are provided for convenience.

【0021】次に、この操作スイッチ部4の一部を構成
する音声認識装置30について、図2を参照してさらに
詳しく説明する。音声認識装置30は、「音声入力手
段」としてのマイク31と、マイク31を介して入力し
た音声信号をA/D変換などによってデータ処理可能な
形態に変換処理する入力信号処理部32と、「認識手
段」としての認識処理部33と、「辞書手段」及び「辞
書管理手段」としての辞書管理部34と、「辞書管理手
段」の一部としても機能する認識制御部35とを備えて
いる。
Next, the speech recognition device 30 constituting a part of the operation switch section 4 will be described in more detail with reference to FIG. The voice recognition device 30 includes a microphone 31 as “voice input means”, an input signal processing unit 32 that converts a voice signal input via the microphone 31 into a form capable of data processing by A / D conversion or the like, and “ A recognition processing unit 33 as a “recognition unit”, a dictionary management unit 34 as a “dictionary unit” and a “dictionary management unit”, and a recognition control unit 35 also functioning as a part of the “dictionary management unit” are provided. .

【0022】なお、図2には図示していないが、本実施
例における音声入力方法は、利用者がPTT(Push-To-
Talk)スイッチを押しながらマイク31を介して音声を
入力するという使用方法である。具体的には、入力信号
処理部32はPTTスイッチが押されたかどうかを判断
しており、PTTスイッチが押されている場合にはマイ
ク31を介しての音声入力処理を実行するが、押されて
いない場合にはその音声入力処理を実行しないようにし
ている。したがって、PTTスイッチが押されている間
にマイク31を介して入力された音声データのみが認識
処理部33へ出力されることとなる。
Although not shown in FIG. 2, the voice input method according to the present embodiment uses a PTT (Push-To-
Talk) inputting a voice via the microphone 31 while pressing the switch. Specifically, the input signal processing unit 32 determines whether or not the PTT switch has been pressed. If the PTT switch has been pressed, the input signal processing unit 32 executes a voice input process via the microphone 31. If not, the voice input process is not executed. Therefore, only the voice data input via the microphone 31 while the PTT switch is pressed is output to the recognition processing unit 33.

【0023】認識処理部33は、入力信号処理部32か
ら入力された音声データを、設定された辞書データ中に
比較対象パターン候補と比較して一致度の高い上位比較
対象パターンを認識制御部35へ出力する。入力音声中
の単語系列の認識は、入力信号処理部32から入力され
た音声データを順次音響分析して音響的特徴量(例えば
ケプストラム)を抽出し、この音響分析によって得られ
た音響的特徴量時系列データを得る。そして、周知のD
Pマッチング法によって、この時系列データをいくつか
の区間に分け、各区間が辞書データとして格納されたど
の単語に対応しているかを求める。
The recognition processing unit 33 compares the voice data input from the input signal processing unit 32 with the comparison target pattern candidates in the set dictionary data, and determines a higher comparison target pattern having a high degree of coincidence with the recognition control unit 35. Output to The recognition of the word sequence in the input speech is performed by sequentially performing acoustic analysis on the speech data input from the input signal processing unit 32 to extract an acoustic feature (for example, cepstrum), and the acoustic feature obtained by the acoustic analysis. Get time series data. And the well-known D
This time series data is divided into several sections by the P matching method, and it is determined which word each section corresponds to stored in the dictionary data.

【0024】なお、認識処理部33から認識制御部35
に出力される認識結果は1つとは限らない。例えば認識
処理部33における類似判定結果の上位複数の語彙、あ
るいは認識された複数の語彙のこともある。音声認識技
術は、登録された認識対象語と取り込まれた音声のパタ
ーンマッチングであるため、一致度の高いものを認識結
果として複数出力するのが一般的である。例えば都道府
県名を認識辞書とした場合、「ワカヤマケン」と「オカ
ヤマケン」のパターンが似ていれば、「岡山県」という
利用者の発声に対して上記2つが認識結果として出力さ
れることもある。また、最近の技術では、利用者の発
声、例えば「名古屋市の美術館」に対して「名古屋市」
と「美術館」の2つの語彙を別々のものとして認識して
認識結果を出力することも可能である。
It should be noted that the recognition processing section 33 sends the recognition control section 35
Is not necessarily one. For example, there may be a plurality of vocabulary words ranked higher in the similarity determination result in the recognition processing unit 33 or a plurality of recognized vocabulary words. Since the voice recognition technology is a pattern matching between a registered recognition target word and a fetched voice, it is common to output a plurality of words having a high degree of matching as a recognition result. For example, when a prefecture name is used as a recognition dictionary, if the patterns of “Wakayamaken” and “Okayamaken” are similar, the above two may be output as a recognition result in response to the utterance of the user “Okayama Prefecture”. . Also, in recent technology, user utterances, such as “Nagoya City Art Museum”
It is also possible to recognize the two vocabularies of “Museum” and “Museum” as separate things and output the recognition result.

【0025】そして、認識制御部35は、その認識結果
を操作制御部5へ出力すると共に、操作制御部5からは
状態を取得する。この状態とは、ナビゲーションシステ
ム1が現時点でどのような設定状態にあるのかなどを取
得する。そして、その取得した状態に基づいて辞書管理
部34に対して辞書指定を行う。
Then, the recognition control unit 35 outputs the recognition result to the operation control unit 5 and acquires the state from the operation control unit 5. This state acquires the current setting state of the navigation system 1 and the like. Then, a dictionary is specified to the dictionary management unit 34 based on the acquired state.

【0026】辞書管理部34は、記憶している辞書デー
タを認識処理部33に設定する。認識処理部33はこの
設定された辞書データに基づいて認識処理を行うのであ
るが、辞書管理部34は、記憶している辞書データ常に
同じ状態で認識処理部33に設定するとは限らない。つ
まり、認識制御部35から辞書指定があると、その指定
に基づいて編集した辞書データを認識処理部33に設定
するのである。この辞書編集の内容については、後述す
る。
The dictionary management unit 34 sets the stored dictionary data in the recognition processing unit 33. The recognition processing unit 33 performs the recognition process based on the set dictionary data. However, the dictionary management unit 34 does not always set the stored dictionary data in the recognition processing unit 33 in the same state. That is, when a dictionary is specified from the recognition control unit 35, the dictionary data edited based on the specification is set in the recognition processing unit 33. The contents of this dictionary editing will be described later.

【0027】次に、本実施例のナビゲーションシステム
1の動作について説明する。なお、音声認識装置30に
関係する部分が特徴であるので、ナビゲーションシステ
ムとしての一般的な動作を簡単に説明した後、音声認識
装置30に関係する部分の動作について詳しく説明する
こととする。
Next, the operation of the navigation system 1 of this embodiment will be described. In addition, since the part related to the voice recognition device 30 is a feature, the general operation of the navigation system will be briefly described, and then the operation of the part related to the voice recognition device 30 will be described in detail.

【0028】ナビゲーションシステム1の電源オン後
に、ディスプレイ14上に表示されるメニューから、ド
ライバーが機構スイッチ2またはリモコンスイッチ3に
より、案内経路をディスプレイ14に表示させるために
経路情報表示処理を選択した場合、あるいは、音声認識
装置30を介して希望するメニューをマイク31を介し
て音声入力することで、上述したスイッチ2,3を介し
て選択されるのと同様の指示が認識制御部35から操作
制御部5へなされた場合、次のような処理を実施する。
After the power of the navigation system 1 is turned on, the driver selects the route information display processing from the menu displayed on the display 14 by using the mechanism switch 2 or the remote control switch 3 to display the guide route on the display 14. Alternatively, by inputting a desired menu by voice through the microphone 31 through the voice recognition device 30, the same instruction as that selected through the switches 2 and 3 described above is operated and controlled by the recognition control unit 35. When the processing is performed on the unit 5, the following processing is performed.

【0029】すなわち、ドライバーがディスプレイ14
上の地図に基づいて、音声あるいはスイッチ操作によっ
て目的地を入力すると、現在位置算出部6にて車両の現
在地が求められ、目的地と現在地との間に、ダイクスト
ラ法によりコスト計算して、現在地から目的地までの最
も短距離の経路を誘導経路として求める処理が行われ
る。そして、ディスプレイ14上の道路地図に重ねて誘
導経路を表示して、ドライバーに適切なルートを案内す
る。このような誘導経路を求める計算処理や案内処理は
一般的に良く知られた処理であるので説明は省略する。
That is, the driver operates the display 14
When the destination is input by voice or switch operation based on the above map, the current position of the vehicle is obtained by the current position calculation unit 6, and the cost is calculated between the destination and the current position by the Dijkstra method. A process of obtaining the shortest route from the route to the destination as a guidance route is performed. Then, the guidance route is displayed on the road map on the display 14 to guide the driver to an appropriate route. The calculation process and the guidance process for obtaining such a guide route are generally well-known processes, and a description thereof will be omitted.

【0030】次に、音声認識装置30における動作につ
いて図3のフローチャートを参照して説明する。起動し
た際の最初のステップS10においては、ユーザ設定が
あるかどうかを判断する。ここでいうユーザ設定とは、
例えば特別に音声認識の対象としたい地点(ナビゲーシ
ョンシステムでは、メモリ地点登録として、住所地名や
施設名称以外のもので登録されている地点情報)や、音
声認識結果の確認方法などの設定である。このようなユ
ーザ設定がなされていない場合には(S10:NO)、
そのままS30へ移行するが、ユーザ設定がなされてい
れば(S10:YES)、その設定状態を入力してから
(S20)、S30へ移行する。
Next, the operation of the speech recognition apparatus 30 will be described with reference to the flowchart of FIG. In the first step S10 upon activation, it is determined whether or not there is a user setting. The user settings here are
For example, it is a setting of a point to be specially targeted for voice recognition (in the navigation system, point information registered as something other than an address place name and a facility name as a memory point registration), a method of confirming a voice recognition result, and the like. If such a user setting has not been made (S10: NO),
The process directly proceeds to S30, but if the user setting has been made (S10: YES), the setting state is input (S20), and then the process proceeds to S30.

【0031】S30では、ナビゲーションシステムの状
態、例えば「ディスプレイ14に現在表示中の地図縮尺
が1万分の1の道路地図であって、これ以上詳細な地図
はない」といった状態などを取り込む。なお、地図以外
の表示として、例えばジャンル別に目的地を探す場合に
は「レストランリスト」、「温泉リスト」、「ゴルフ場
ルスト」などが表示されている状態もあるので、その場
合はどのジャンルのリストが表示されているかという状
態を取り込む。
In step S30, the state of the navigation system, for example, a state such as "the map currently displayed on the display 14 is a 1 / 10000th scale road map, and there is no more detailed map" is fetched. As a display other than a map, for example, when searching for destinations by genre, there may be a state where a "restaurant list", a "hot spring list", a "golf course rust", etc. are displayed. Captures whether the list is displayed.

【0032】なお、これらS20での設定状態の入力及
びS30でのシステム状態の取り込みは、図2の認識制
御部35が操作制御部5から入力及び取り込むこととな
る。そして、続くS40では、認識制御部35が、S2
0にて入力した設定状態及びS30にて取り込んだシス
テム状態に基づき、辞書管理部34に対して辞書指定を
行う。すると、辞書管理部34は、その辞書指定に基づ
き認識処理部33に対して辞書設定を行う。例えば、図
5に示す辞書データ(ベース辞書)は、認識可能な全て
の語彙が含まれるものであり、図6に示す辞書データ
(選択辞書)は、その中から所定のものだけを抽出して
設定したものである。なお、この具体的な設定について
は、後述することとする。
The input of the setting state in S20 and the input of the system state in S30 are performed by the recognition control unit 35 shown in FIG. Then, in subsequent S40, the recognition control unit 35 determines that S2
Based on the setting status input at 0 and the system status fetched at S30, a dictionary is specified to the dictionary management unit 34. Then, the dictionary management unit 34 sets a dictionary in the recognition processing unit 33 based on the dictionary specification. For example, the dictionary data (base dictionary) shown in FIG. 5 includes all recognizable vocabularies, and only predetermined data is extracted from the dictionary data (selection dictionary) shown in FIG. It is set. The specific setting will be described later.

【0033】こうして音声認識のための準備が完了する
と、S60にて音声認識を行い、その音声認識が成功し
たかどうかを判断する。なお、音声認識は次のように行
う。上述したように、図示しないPTTスイッチが押さ
れている間にマイク31を介して入力された音声データ
のみが入力信号処理部32から認識処理部33へ出力さ
れる。したがって、入力信号処理部32からの音声デー
タの入力があれば、認識処理部33は、辞書管理部34
にて設定された辞書データを用いて照合を行い認識処理
を実行する。そして、音声データの取込に異常がある、
あるいは辞書データを用いた照合の結果、一致するもの
がない、などの不具合が検出されれば、音声認識は失敗
であるとして(S60:NO)、そのまま本処理ルーチ
ンを終了する。
When the preparation for speech recognition is completed, speech recognition is performed in S60, and it is determined whether or not the speech recognition has succeeded. The voice recognition is performed as follows. As described above, only the audio data input via the microphone 31 while the PTT switch (not shown) is being pressed is output from the input signal processing unit 32 to the recognition processing unit 33. Therefore, if voice data is input from the input signal processing unit 32, the recognition processing unit 33
The collation is performed by using the dictionary data set in the above, and the recognition process is executed. And there is an abnormality in the capture of audio data,
Alternatively, as a result of the collation using the dictionary data, if a defect such as no match is detected, it is determined that the voice recognition has failed (S60: NO), and the present processing routine is terminated as it is.

【0034】一方、音声認識が成功した場合には(S6
0:YES)、認識制御部35はその認識結果を操作制
御部5へ出力する。そして、操作制御部5から音声出力
制御部11及びスピーカ12を介して認識結果が音声応
答する(S70)。この認識結果の音声応答により、ユ
ーザは自分の意図した指示が正しく認識されているかど
うかを判断することができ、正しく認識されていれば、
例えば音声にて「はい」と入力したり、所定の確定スイ
ッチを操作することによって、ユーザ要求確定となり
(S80:YES)、S90へ移行する。なお、ユーザ
要求が確定しない場合には、またS60へ戻って、再度
入力された音声データに対する認識処理を行う。また、
ユーザ要求確定については、例えば機構スイッチ2やリ
モコンスイッチ3に確定指示用のスイッチを設けてお
き、そのスイッチ操作にて判断してもよい。
On the other hand, if the speech recognition is successful (S6
0: YES), the recognition control unit 35 outputs the recognition result to the operation control unit 5. Then, the recognition result is voice-responded from the operation control unit 5 via the voice output control unit 11 and the speaker 12 (S70). By the voice response of the recognition result, the user can determine whether or not the instruction intended by the user is correctly recognized.
For example, by inputting "Yes" by voice or operating a predetermined confirmation switch, the user request is confirmed (S80: YES), and the process proceeds to S90. If the user request is not confirmed, the process returns to S60 to perform the recognition process on the input voice data again. Also,
The determination of the user request may be made by providing a switch for instructing the determination, for example, in the mechanism switch 2 or the remote control switch 3 and operating the switch.

【0035】S90では、認識制御部35が要求確定を
操作制御部5へ応答する。これによって、例えばディス
プレイ14に1万分の1の縮尺の地図が表示されている
状態で、ユーザからの音声入力が「地図縮尺を2万分の
1に変更する」という要求であった場合には、その要求
が確定することによって、操作制御部5はディスプレイ
14に表示されている地図の縮尺を2万分の1に変更す
る処理を実行することとなる。また、「目的地を設定す
る」のようなユーザ要求であった場合は、目的地とする
地点情報がないと要求実現ができない。したがって、こ
の場合は、再度実行する図3の処理中のS20におい
て、ユーザ設定が「目的地を設定する」状態であること
を入力し、その設定状態に基づき、S40,S50にお
いて、目的地を設定するための辞書編集及び設定を行
う。そして、音声認識処理を実行する。このようにし
て、ユーザの要求する機能がナビゲーションシステム1
にて実現されるまで音声認識処理を繰り返す。
In S90, the recognition control section 35 responds to the operation control section 5 with the request confirmation. With this, for example, when a map at a scale of 1/10000 is displayed on the display 14, and a voice input from the user is a request to "change the map scale to 1/20000", When the request is determined, the operation control unit 5 executes a process of changing the scale of the map displayed on the display 14 to 1/20000. Further, in the case of a user request such as "set a destination", the request cannot be realized without the point information as the destination. Therefore, in this case, in S20 in the process of FIG. 3 to be executed again, it is input that the user setting is a state of “setting a destination”, and based on the setting state, the destination is set in S40 and S50. Performs dictionary editing and setting for setting. Then, the voice recognition processing is executed. In this manner, the function requested by the user is
Repeat the voice recognition process until realized by.

【0036】図3では音声認識装置30での全体的な動
作を説明したが、S40,S50における辞書編集及び
設定に特徴があるので、この点について具体例を挙げな
がらさらに説明する。例えば、図4(A)に示すように
ディスプレイ14に「レストラン」のリスト表示がされ
ている状態にて音声認識機能が起動した場合には、ユー
ザの操作に応じてこのレストランリストを表示するして
いることは明らかで、この状態においてユーザが「地図
向きの変更」や「地図尺度の変更」といった地図操作に
関する要求を行うことは考えられない。また、他のリス
ト、例えば「温泉リスト」や「ゴルフ場リスト」が表示
されている場合に要求される温泉やゴルフ場に関するデ
ータなどについても、この状態で要求されることは考え
られない。
In FIG. 3, the overall operation of the speech recognition apparatus 30 has been described. However, since the dictionary editing and setting in S40 and S50 are characterized, this point will be further described with specific examples. For example, when the voice recognition function is activated while the list of “restaurants” is displayed on the display 14 as shown in FIG. 4A, the restaurant list is displayed in response to a user operation. Obviously, in this state, it is unlikely that the user makes a request for a map operation such as "change of map orientation" or "change of map scale". Also, it is unlikely that other lists, for example, data on hot springs and golf courses required when the “hot spring list” and “golf course list” are displayed, are requested in this state.

【0037】そこで、図4(A)のようにレストランリ
ストが表示されている状態でユーザが要求するのは、レ
ストランの店名そのものの指定か、あるいはレストラン
というジャンルをさらに詳細に区別するジャンル指定の
いずれかであると想定でき、絞り込むことができる。そ
こで、図2における認識制御部35は、操作制御部5か
らレストランリストが表示されているという状態を取得
し、辞書管理部34に対して、「レストランに関する辞
書」という指定を行う。
Therefore, the user requests while the restaurant list is displayed as shown in FIG. 4A, either by specifying the restaurant name itself, or by specifying a genre for discriminating the genre of the restaurant in more detail. It can be assumed to be one of them, and can be narrowed down. Therefore, the recognition control unit 35 in FIG. 2 obtains a state that the restaurant list is displayed from the operation control unit 5 and specifies the “dictionary about restaurant” to the dictionary management unit 34.

【0038】辞書管理部34は、予め記憶されているベ
ース辞書(図5参照)から、辞書指定に基づいて必要分
を抽出(あるいは不要分を削除)した選択辞書(図6参
照)を編集し、認識処理部33に設定する。図5に示す
ベース辞書は、認識語彙毎に、都道府県(但し名古屋市
はここに含む)・市区町村・ジャンル・詳細・条件とい
う5つの項目が設定されているので、この場合には、そ
の内のジャンルに基づき「食事」というジャンルを持つ
認識語彙のみを抽出し、図6に示す選択辞書を設定する
こととなる。このように選択辞書を設定すると、例えば
図5中において「○○味」、「伊豆見町」、「和泉市」
という3つの認識語彙があるが、この内「○○味」に対
して誤認識の可能性が高い「伊豆見町」及び「和泉市」
という認識語彙を削除した選択辞書(図6)を設定する
ことができる。したがって、ユーザが「○○味」を指定
したい場合、適切にその「○○味」が認識されることと
なる。
The dictionary management unit 34 edits a selected dictionary (see FIG. 6) in which necessary parts are extracted (or unnecessary parts are deleted) based on dictionary designation from a base dictionary (see FIG. 5) stored in advance. , In the recognition processing unit 33. In the base dictionary shown in FIG. 5, five items of prefecture (however, Nagoya City is included here), municipalities, genre, details, and conditions are set for each recognized vocabulary. In this case, Based on the genre, only the recognition vocabulary having the genre “meal” is extracted, and the selection dictionary shown in FIG. 6 is set. When the selection dictionary is set in this way, for example, in FIG. 5, "OO taste", "Izumi town", "Izumi city"
There are three vocabulary words, "Izumi-cho" and "Izumi-shi", which have a high possibility of misrecognition for "oo taste".
The selected dictionary (FIG. 6) from which the recognized vocabulary is deleted can be set. Therefore, when the user wants to specify “XX taste”, the “XX taste” is appropriately recognized.

【0039】また、「○○味」が音声入力され、図4
(B)に示すように、「○○味」の場所が周辺地図と共
にディスプレイ14に表示されている状態では、次のよ
うな選択辞書の設定がなされる。つまり、この図4
(B)に示す地図はユーザの要求に従って表示したもの
であるため、次の指示として「表示地図尺度の変更」、
「表示位置のスクロール」、「目的地とする」、「通過
点とする」というような内容が想定され、例えばゴルフ
場などの他のリストや、音声のボリューム変更などが指
示されることは考えにくい。したがって、この場合の認
識制御部35は、ユーザの要求に従って地図を表示して
いるという状態に基づき、辞書管理部34に対して、地
図操作を行うコマンドのみに絞った選択辞書を設定する
よう辞書指定をする。
In addition, "○ taste" is inputted by voice, and FIG.
As shown in (B), in a state where the location of “OO taste” is displayed on the display 14 together with the surrounding map, the following selection dictionary is set. That is, FIG.
Since the map shown in (B) is displayed according to the user's request, the next instruction is to change the displayed map scale,
It is assumed that contents such as "display position scrolling", "destination", "passing point" are assumed, and it is considered that another list such as a golf course or a change in volume of sound is instructed. Hateful. Therefore, the recognition control unit 35 in this case sets the dictionary to the dictionary management unit 34 based on the state that the map is displayed in accordance with the user's request, so that the dictionary management unit 34 sets the selected dictionary limited to only the command for performing the map operation. Specify.

【0040】このように、ユーザの操作に基づいて状態
が変更されていくに従い、その変更された状態において
必要な認識語彙のみを含む選択辞書が随時設定されてい
く。つまり、その時点でのナビゲーションシステム1の
状態から必要と思われる認識語彙はそのまま残って有効
とされ、それ以外の認識語彙が辞書データとして無効と
なるので、誤認識を極力防止できながら本来認識すべき
語彙についての音声認識は適切に実現することができ
る。
As described above, as the state is changed based on the operation of the user, a selection dictionary including only necessary recognition vocabulary in the changed state is set as needed. In other words, the recognized vocabulary considered necessary from the state of the navigation system 1 at that time remains valid, and the other recognized vocabulary becomes invalid as dictionary data. Speech recognition for a power vocabulary can be appropriately realized.

【0041】[第2実施例]上述した第1実施例におい
ては、図5に示すベース辞書を、ジャンルが「食事」と
なっている認識語彙のみを抽出することによって、図6
に示す選択辞書を設定したが、このようにした場合に
は、図6の選択辞書中に含まれない認識語彙について
は、認識の際に全く対象外となる。もちろん、上述した
ように、その時点でのシステムの状態では入力されるこ
とがあり得ない認識語彙ばかりであれば対象外としても
何ら問題がない。但し、入力される可能性はないとは言
えないが、その可能性が低い認識語彙というものも存在
する。その認識語彙も選択辞書中に含めておくと、結
局、辞書データ中に誤認識の可能性のある語彙が増える
こととなる。
[Second Embodiment] In the above-described first embodiment, the base dictionary shown in FIG. 5 is used to extract only recognized vocabulary words whose genre is “meal”, thereby obtaining FIG.
In this case, the recognition vocabulary not included in the selection dictionary in FIG. 6 is completely excluded from recognition. Of course, as described above, there is no problem even if the recognition vocabulary is not a target as long as the recognition vocabulary cannot be input in the state of the system at that time. However, it cannot be said that there is no possibility of being input, but there is a recognized vocabulary having a low possibility of being input. If the recognized vocabulary is also included in the selected dictionary, the number of vocabularies that may be erroneously recognized in the dictionary data will eventually increase.

【0042】この点を鑑みた第2実施例では、次のよう
な辞書を構築する。つまり、図7に示すように、認識語
彙毎にさらに「優先度」という項目を設定する。そし
て、図7に示すベース辞書の状態ではその優先度は全て
0にしておき、図8に示す選択辞書とする場合には、所
定の認識語彙についてのみ、その優先度を10あるいは
5に設定するのである。図8に示す場合には、ジャンル
項目において「食事」となっている認識語彙については
優先度を0から10あるいは5として、それ以外の認識
語彙よりも認識対象とされ易くする。但し、本実施例で
は、ジャンル項目において「食事」となっている認識語
彙の中でも、詳細項目において単に「分類タイトル」と
されている2つの認識語彙、すなわち「和食」及び「中
華」については優先度を5とし、それ以外の4つの認識
語彙は優先度を10としてある。
In the second embodiment in consideration of this point, the following dictionary is constructed. That is, as shown in FIG. 7, an item “priority” is further set for each recognized vocabulary. Then, in the state of the base dictionary shown in FIG. 7, all the priorities are set to 0, and in the case of the selection dictionary shown in FIG. 8, the priority is set to 10 or 5 only for a predetermined recognition vocabulary. It is. In the case shown in FIG. 8, the priority is set to 0 to 10 or 5 for the recognition vocabulary of "meal" in the genre item, so that the recognition vocabulary is more easily recognized than the other recognition vocabulary. However, in the present embodiment, among the recognized vocabulary words that are “meal” in the genre item, two recognized vocabulary words that are simply “classified title” in the detailed item, that is, “Japanese food” and “Chinese” have priority. The degree is set to 5 and the other four recognition vocabularies are set to the priority of 10.

【0043】このようにすれば、例えば上述した「○○
味」、「伊豆見町」、「和泉市」という誤認識の可能性
が高い3つの認識語彙が存在しても、「○○味」は優先
度が10と高く設定され、他の「伊豆見町」及び「和泉
市」は優先度が0と低く設定されているので、優先度の
低い認識語彙が誤って認識される可能性が低くなり、結
果的に誤認識を極力防止することができる。また、優先
度が低く設定されている認識語彙についても、優先度は
低いが最終的には選択辞書中に認識対象の語彙としては
存在しているので、認識結果として得ることは可能であ
る。したがって、例えば音声認識装置30としては優先
度の高い認語語彙の順に認識結果として出力したが、ユ
ーザからは所望するものでないため別の認識結果を出力
すよう指示があると、最終的にはその優先度の低い認識
語彙が認識結果として出力され、ユーザの所望のものと
なることもできる。つまり、利用される/されないとい
う完全な二者択一で対応し切れない状況においては、こ
のように優先度を設定する手法が有効である。
By doing so, for example, the above-mentioned "XX"
Even though there are three recognized vocabulary words that have a high possibility of misrecognition, such as “Taste”, “Izumi-cho”, and “Izumi City”, “OO taste” has a high priority of 10 and other “Izu” Mimachi and Izumi-shi have a low priority of 0, so that the recognition vocabulary with low priority is less likely to be erroneously recognized, and as a result, erroneous recognition can be minimized. it can. Also, a recognition vocabulary set to a low priority has a low priority, but finally exists as a recognition target vocabulary in the selected dictionary, and thus can be obtained as a recognition result. Therefore, for example, the speech recognition device 30 outputs the recognition results in the order of the recognized vocabulary words having the highest priority. However, if the user instructs to output another recognition result because the recognition result is not the desired one, eventually, The recognition vocabulary having the lower priority is output as a recognition result, and may be the one desired by the user. In other words, in a situation where it is impossible to cope with the situation by completely using the option of using or not using, it is effective to set the priority in this way.

【0044】[第3実施例]以上の2つの実施例は、ナ
ビゲーションシステム1におけるユーザの指示入力のた
めに音声認識装置30を利用した例として説明したが、
それ以外にも、例えば自動販売システムにおける希望商
品などの指示を入力するための音声認識装置として用い
ることもできる。
Third Embodiment The above two embodiments have been described as examples in which the voice recognition device 30 is used for inputting a user's instruction in the navigation system 1.
In addition, the present invention can be used as a voice recognition device for inputting an instruction such as a desired product in an automatic vending system.

【0045】例えばたばこの自動販売システムを考え
る。この場合のベース辞書は、図9(A)に示すよう
に、ID(番号)1,2,3…毎に、銘柄・分類・設定
の3つの項目が設定されている。ここで、銘柄には、自
動販売装置にて理論上販売が可能とされている全てのた
ばこの銘柄が設定される。つまり、実際にその自動販売
装置にて販売するかどうかは関係なく、流通している全
てのたばこの銘柄を設定しておくのである。しかし、現
実的には1台の自動販売装置で販売できるたばこの種類
には限度があるため、実際にその自動販売装置で販売対
象としている銘柄のみを認識対象とするため、図9
(B)に示すような選択辞書を設定する。つまり、「設
定」という項目において、実際に販売可能な銘柄のみを
「ON」とし、それ以外は「OFF」と設定する。具体
的には、この設定が「ON」とされた銘柄のみが認識語
彙とされた選択辞書が構築され、その選択辞書に基づく
音声認識が実行されることとなる。なお、このON・O
FFの設定は、具体的には自動販売装置の管理者などが
マニュアル設定することとなる。
For example, consider a cigarette vending system. In the base dictionary in this case, as shown in FIG. 9A, three items of brand, classification, and setting are set for each ID (number) 1, 2, 3,.... Here, all brands of tobacco that are theoretically available for sale by the vending machine are set as brands. That is, regardless of whether the vending machine is actually sold by the vending machine, brands of all tobacco in circulation are set. However, in reality, there is a limit to the types of cigarettes that can be sold by one vending machine, so only the brands actually sold by the vending machine are recognized.
A selection dictionary as shown in (B) is set. That is, in the item of “setting”, only brands that can actually be sold are set to “ON”, and other items are set to “OFF”. Specifically, a selection dictionary in which only the brands whose setting is “ON” is set as a recognition vocabulary is constructed, and speech recognition based on the selected dictionary is executed. This ON / O
Specifically, the setting of the FF is manually set by an administrator of the vending apparatus.

【0046】このようにすれば、どのような銘柄のたば
こを選択して自動販売の対象とするかに応じて辞書デー
タを調整できるので、その自動販売装置で扱っていない
銘柄のたばこが誤認識結果とされることがなくなる。そ
のため、自動販売装置の利用者にとっての使い勝手も向
上する。
In this way, the dictionary data can be adjusted according to what brand of cigarette is selected and subject to vending, so that cigarettes of brands not handled by the vending machine are erroneously recognized. It will not be a result. Therefore, the convenience for the user of the vending machine is improved.

【0047】また、上述した第2実施例の場合と同様
に、その自動販売装置で扱っていない銘柄については、
優先度を低く設定するという手法も採用可能である。但
し、この場合には、扱っていない銘柄は、認識しても最
終的には販売できないので、辞書データとして無効にし
た方が、優先度を低くするより好ましいと言える。
As in the case of the second embodiment described above, for brands not handled by the vending machine,
It is also possible to adopt a method of setting a low priority. However, in this case, brands not handled cannot be sold finally even if recognized, so it can be said that invalidating the dictionary data is more preferable than lowering the priority.

【0048】[その他]上述した実施例では、音声認識
装置30をナビゲーションシステム1あるいは自動販売
システムに適用した例として説明したが、適用先として
は、それ以外にも種々考えられる。要は、ユーザからの
指示に基づきシステムの状態が遷移していく場合に、あ
る状態においてはユーザからの指示内容が限定される状
況が生じるのであれば、認識語彙を抽出した選択辞書を
設定することにより、その状態での誤認識を極力防止す
るという効果が得られるのである。
[Others] In the above-described embodiment, the speech recognition apparatus 30 has been described as an example in which the speech recognition apparatus 30 is applied to the navigation system 1 or the vending system. However, the application destination may be variously applied. In short, if the state of the system changes based on an instruction from the user, and if there is a situation where the contents of the instruction from the user are limited in a certain state, a selection dictionary that extracts the recognized vocabulary is set. As a result, an effect of minimizing erroneous recognition in that state can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施例としてのナビゲーションシステムの概
略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a navigation system as an embodiment.

【図2】 実施例の音声認識装置の概略構成を示すブロ
ック図である。
FIG. 2 is a block diagram illustrating a schematic configuration of a speech recognition device according to the embodiment.

【図3】 実施例の音声認識装置における処理を示すフ
ローチャートである。
FIG. 3 is a flowchart illustrating a process performed by the voice recognition device according to the embodiment;

【図4】 システム状態の具体例を示す説明図である。FIG. 4 is an explanatory diagram showing a specific example of a system state.

【図5】 音声認識部内の辞書管理部が設定するベース
辞書の説明図である。
FIG. 5 is an explanatory diagram of a base dictionary set by a dictionary management unit in the voice recognition unit.

【図6】 音声認識部内の辞書管理部が設定する選択辞
書の説明図である。
FIG. 6 is an explanatory diagram of a selected dictionary set by a dictionary management unit in the voice recognition unit.

【図7】 第2実施例の場合のベース辞書の説明図であ
る。
FIG. 7 is an explanatory diagram of a base dictionary in the case of the second embodiment.

【図8】 第2実施例の場合の選択辞書の説明図であ
る。
FIG. 8 is an explanatory diagram of a selection dictionary in the case of the second embodiment.

【図9】 第3実施例の場合のベース辞書及び選択辞書
の説明図である。
FIG. 9 is an explanatory diagram of a base dictionary and a selection dictionary in the case of the third embodiment.

【符号の説明】[Explanation of symbols]

1…ナビゲーションシステム 2…機構スイッチ 3…リモコンスイッチ 4…操作スイッチ部 5…操作制御部 6…現在位置算出部 7…経路計算部 8…案内制御部 9…地図データ検索部 11…音声出力制御部 12…スピーカ 13…表示制御部 14…ディスプレイ 30…音声認識装置 31…マイク 32…入力信号処理
部 33…認識処理部 34…辞書管理部 35…認識制御部
REFERENCE SIGNS LIST 1 navigation system 2 mechanism switch 3 remote control switch 4 operation switch unit 5 operation control unit 6 current position calculation unit 7 route calculation unit 8 guidance control unit 9 map data search unit 11 audio output control unit DESCRIPTION OF SYMBOLS 12 ... Speaker 13 ... Display control part 14 ... Display 30 ... Voice recognition device 31 ... Microphone 32 ... Input signal processing part 33 ... Recognition processing part 34 ... Dictionary management part 35 ... Recognition control part

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08G 1/0969 Fターム(参考) 2F029 AA02 AB07 AB13 AC02 AC04 AC09 AC18 3E044 AA01 AA20 CA01 CA10 CB01 CC10 DA10 EA20 EB01 EB08 5D015 HH13 KK01 LL10 5H180 AA01 BB04 BB13 CC12 CC27 EE01 FF04 FF05 FF22 FF25 FF27 FF32 FF33 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (Reference) G08G 1/0969 F term (Reference) 2F029 AA02 AB07 AB13 AC02 AC04 AC09 AC18 3E044 AA01 AA20 CA01 CA10 CB01 CC10 DA10 EA20 EB01 EB08 5D015 HH13 KK01 LL10 5H180 AA01 BB04 BB13 CC12 CC27 EE01 FF04 FF05 FF22 FF25 FF27 FF32 FF33

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】音声を入力するための音声入力手段と、 該音声入力手段を介して入力された音声を、予め辞書手
段に記憶されている複数の比較対象パターン候補と比較
して一致度合の高いものを認識結果とする認識手段と、 を備える音声認識装置であって、 前記認識結果を利用者の指示内容として扱う外部装置に
おける状態を入力し、その入力した状態に基づき、前記
辞書手段に記憶されている前記複数の比較対象パターン
候補の内から所定のものだけを一時的に抽出し、その抽
出した比較対象パターン候補のみを前記認識手段におけ
る認識の際の辞書データとして有効にする辞書管理手段
を備えていること、 を特徴とする音声認識装置。
1. A voice input means for inputting voice, and a voice input through the voice input means is compared with a plurality of comparison target pattern candidates stored in a dictionary means in advance to determine a matching degree. A voice recognition device comprising: a recognition unit that sets a high recognition result as a recognition result. Dictionary management for temporarily extracting only predetermined ones of the plurality of stored comparison target pattern candidates and validating only the extracted comparison target pattern candidates as dictionary data for recognition by the recognition means. Means for speech recognition.
【請求項2】請求項1に記載の音声認識装置において、 前記辞書管理手段は、入力した前記外部装置の状態にあ
っては利用者からの指示としてあり得ないと考えられる
前記比較対象パターンを認識の際の辞書データとして無
効にすることによって、それ以外のものを有効にするこ
と、 を特徴とする音声認識装置。
2. The speech recognition apparatus according to claim 1, wherein the dictionary management unit stores the comparison target pattern, which is considered impossible as an instruction from a user in the state of the input external device. A speech recognition device, characterized by invalidating dictionary data for recognition and validating other data.
【請求項3】音声を入力するための音声入力手段と、 該音声入力手段を介して入力された音声を、予め辞書手
段に記憶されている複数の比較対象パターン候補と比較
して一致度合の高いものを認識結果とする認識手段と、 を備える音声認識装置であって、 前記認識結果を利用者の指示内容として扱う外部装置に
おける状態を入力し、 その入力した状態に基づき、前記辞書手段に記憶されて
いる前記複数の比較対象パターン候補について一時的に
優先度を設定し、その設定された優先度の高い比較対象
パターン候補ほど前記認識手段における認識の際の辞書
データとして利用され易くする辞書管理手段を備えてい
ること、 を特徴とする音声認識装置。
3. A voice input means for inputting voice, and a voice input via the voice input means is compared with a plurality of comparison target pattern candidates stored in advance in the dictionary means to determine a matching degree. A voice recognition device comprising: a recognition unit that sets a high recognition result as a recognition result; anda state input to an external device that handles the recognition result as user instruction content. A dictionary in which priorities are temporarily set for the stored plurality of comparison target pattern candidates, and the set comparison target pattern candidates having a higher priority are more easily used as dictionary data in recognition by the recognition means. A speech recognition device comprising management means.
【請求項4】請求項3に記載の音声認識装置において、 前記辞書管理手段は、入力した前記外部装置の状態にお
いて利用者からの指示としてあり得る確率の高いと考え
られる前記比較対象パターンほど認識の際の辞書データ
として利用され易くすること、 を特徴とする音声認識装置。
4. The speech recognition apparatus according to claim 3, wherein the dictionary management unit recognizes the comparison target pattern which is considered to have a higher probability as an instruction from a user in the input state of the external device. A speech recognition device characterized by being easily used as dictionary data at the time of (1).
【請求項5】請求項1〜4のいずれかに記載の音声認識
装置と、ナビゲーション装置とを備え、 前記音声認識装置の前記音声入力手段は、少なくとも前
記ナビゲーション装置がナビゲート処理をする上で指定
される必要のある所定のナビゲート処理関連データの指
示を利用者が音声にて入力するために用いられるもので
あり、前記確定後処理手段は、前記認識手段による認識
結果を前記ナビゲーション装置に出力するよう構成され
ていることを特徴とするナビゲーションシステム。
5. The voice recognition device according to claim 1, further comprising a navigation device, wherein the voice input means of the voice recognition device performs at least navigation processing by the navigation device. The user uses a voice to input an instruction of predetermined navigation processing-related data that needs to be specified, and the post-confirmation processing means sends the recognition result by the recognition means to the navigation device. A navigation system configured to output.
【請求項6】請求項5に記載のナビゲーションシステム
において、 前記ナビゲーション装置は表示装置に地図やメニューを
表示可能であり、前記辞書管理手段は、前記表示装置に
表示されている内容に基づき、当該表示内容においては
利用者からの指示としてあり得ないと考えられる前記比
較対象パターンを認識の際の辞書データとして無効にす
るか、あるいは前記優先度を低くすること、 を特徴とするナビゲーションシステム。
6. The navigation system according to claim 5, wherein the navigation device is capable of displaying a map or a menu on a display device, and the dictionary management means is configured to perform a map operation based on the content displayed on the display device. The navigation system, wherein the comparison target pattern considered to be impossible as an instruction from a user in display content is invalidated as dictionary data for recognition or the priority is lowered.
【請求項7】請求項1〜4のいずれかに記載の音声認識
装置と、自動販売装置とを備え、 前記音声認識装置の前記音声入力手段は、少なくとも前
記自動販売装置が販売対象の品物を販売処理をする上で
指定される必要のある所定の自動販売処理関連データの
指示を利用者が音声にて入力するために用いられるもの
であること、 を特徴とする自動販売システム。
7. The voice recognition device according to claim 1, further comprising: a vending device, wherein the voice input unit of the voice recognition device is configured to at least select an item to be sold by the vending device. An automatic vending system, which is used for a user to input an instruction of predetermined automatic vending process related data which needs to be specified in performing a sales process by voice.
【請求項8】請求項7に記載の自動販売システムにおい
て、 前記音声認識装置は、前記自動販売装置にて理論上販売
が可能とされている全ての品物の固有名詞に関する比較
対象パターン候補を前記辞書手段中の辞書データとして
備えていると共に、前記辞書管理手段は、前記自動販売
装置のその時点で実際に販売可能な品物以外の固有名詞
に関する比較対象パターン候補については、一時的に前
記辞書データとして無効にするか、あるいは前記優先度
を低くすること、 を特徴とする自動販売システム。
8. The automatic vending system according to claim 7, wherein the voice recognition device generates a comparison target pattern candidate relating to proper nouns of all items theoretically available for sale by the vending device. The dictionary management means is provided as dictionary data in the dictionary means, and the dictionary management means temporarily stores the dictionary data for comparison target pattern candidates relating to proper nouns other than articles that can be actually sold at the time of the vending apparatus. Vending, or lowering the priority, vending system.
JP18650398A 1998-07-01 1998-07-01 Voice recognition device, navigation system and vending system using the device Expired - Fee Related JP3624698B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18650398A JP3624698B2 (en) 1998-07-01 1998-07-01 Voice recognition device, navigation system and vending system using the device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18650398A JP3624698B2 (en) 1998-07-01 1998-07-01 Voice recognition device, navigation system and vending system using the device

Publications (2)

Publication Number Publication Date
JP2000020086A true JP2000020086A (en) 2000-01-21
JP3624698B2 JP3624698B2 (en) 2005-03-02

Family

ID=16189644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18650398A Expired - Fee Related JP3624698B2 (en) 1998-07-01 1998-07-01 Voice recognition device, navigation system and vending system using the device

Country Status (1)

Country Link
JP (1) JP3624698B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004153764A (en) * 2002-11-01 2004-05-27 Matsushita Electric Ind Co Ltd Meta-data production apparatus and search apparatus
WO2005064592A1 (en) * 2003-12-26 2005-07-14 Kabushikikaisha Kenwood Device control device, speech recognition device, agent device, on-vehicle device control device, navigation device, audio device, device control method, speech recognition method, agent processing method, on-vehicle device control method, navigation method, and audio device control method, and program
JP2006098331A (en) * 2004-09-30 2006-04-13 Clarion Co Ltd Navigation system, method, and program
JP2007322309A (en) * 2006-06-02 2007-12-13 Xanavi Informatics Corp Vehicle-mounted information apparatus
US7469211B2 (en) 2002-06-28 2008-12-23 Denso Corporation Voice control system substituting the oppositely-working command in a pair if the recognized command is not selectable for the given system state
JP2011039185A (en) * 2009-08-07 2011-02-24 Toyota Central R&D Labs Inc Voice interactive device and voice interactive program
JP2017146587A (en) * 2016-02-19 2017-08-24 株式会社東芝 Voice translation device, voice translation method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7469211B2 (en) 2002-06-28 2008-12-23 Denso Corporation Voice control system substituting the oppositely-working command in a pair if the recognized command is not selectable for the given system state
JP2004153764A (en) * 2002-11-01 2004-05-27 Matsushita Electric Ind Co Ltd Meta-data production apparatus and search apparatus
WO2005064592A1 (en) * 2003-12-26 2005-07-14 Kabushikikaisha Kenwood Device control device, speech recognition device, agent device, on-vehicle device control device, navigation device, audio device, device control method, speech recognition method, agent processing method, on-vehicle device control method, navigation method, and audio device control method, and program
JPWO2005064592A1 (en) * 2003-12-26 2007-12-20 株式会社ケンウッド Device control device, voice recognition device, agent device, in-vehicle device control device, navigation device, audio device, device control method, voice recognition method, agent processing method, in-vehicle device control method, navigation method, audio device control method, and program
US8103510B2 (en) 2003-12-26 2012-01-24 Kabushikikaisha Kenwood Device control device, speech recognition device, agent device, on-vehicle device control device, navigation device, audio device, device control method, speech recognition method, agent processing method, on-vehicle device control method, navigation method, and audio device control method, and program
JP2006098331A (en) * 2004-09-30 2006-04-13 Clarion Co Ltd Navigation system, method, and program
JP2007322309A (en) * 2006-06-02 2007-12-13 Xanavi Informatics Corp Vehicle-mounted information apparatus
JP2011039185A (en) * 2009-08-07 2011-02-24 Toyota Central R&D Labs Inc Voice interactive device and voice interactive program
JP2017146587A (en) * 2016-02-19 2017-08-24 株式会社東芝 Voice translation device, voice translation method, and program

Also Published As

Publication number Publication date
JP3624698B2 (en) 2005-03-02

Similar Documents

Publication Publication Date Title
US20080059175A1 (en) Voice recognition method and voice recognition apparatus
JP4466379B2 (en) In-vehicle speech recognition device
JP4997796B2 (en) Voice recognition device and navigation system
JP2008196998A (en) Navigation apparatus
JP2002350151A (en) Navigation device
JP2010230918A (en) Retrieving device
JP5364412B2 (en) Search device
JP3624698B2 (en) Voice recognition device, navigation system and vending system using the device
JP4258890B2 (en) Voice recognition device and navigation system using the device
JP5218459B2 (en) Vehicle information terminal and program
JP2009265019A (en) Car navigation device
JP2003323192A (en) Device and method for registering word dictionary
JP5455355B2 (en) Speech recognition apparatus and program
JP2005275228A (en) Navigation system
JPH11249689A (en) Voice recognition device and map display device
JP4453377B2 (en) Voice recognition device, program, and navigation device
JP2009031065A (en) System and method for informational guidance for vehicle, and computer program
JP3296783B2 (en) In-vehicle navigation device and voice recognition method
JP3500948B2 (en) Voice recognition device
JP2003005783A (en) Navigation system and its destination input method
JP3759313B2 (en) Car navigation system
JPWO2006028171A1 (en) Data presentation apparatus, data presentation method, data presentation program, and recording medium recording the program
JP2001306088A (en) Voice recognition device and processing system
JP2005300989A (en) Speech recognition system
JP3911835B2 (en) Voice recognition device and navigation system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041122

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101210

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111210

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121210

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees