JPH1138994A - Voice recognition system and navigation system - Google Patents

Voice recognition system and navigation system

Info

Publication number
JPH1138994A
JPH1138994A JP9192816A JP19281697A JPH1138994A JP H1138994 A JPH1138994 A JP H1138994A JP 9192816 A JP9192816 A JP 9192816A JP 19281697 A JP19281697 A JP 19281697A JP H1138994 A JPH1138994 A JP H1138994A
Authority
JP
Japan
Prior art keywords
voice
recognition
input
target pattern
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9192816A
Other languages
Japanese (ja)
Other versions
JP3358498B2 (en
Inventor
Norihide Kitaoka
教英 北岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP19281697A priority Critical patent/JP3358498B2/en
Publication of JPH1138994A publication Critical patent/JPH1138994A/en
Application granted granted Critical
Publication of JP3358498B2 publication Critical patent/JP3358498B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a load on a user that the user has to input voice from a high-ranking hierarchy even if it is more natural to omit the high-ranking hierarchy when an object of the voice-input to a voice recognition system is of a hierarchical structure, and improve the use convinience of a voice recognition system. SOLUTION: For example, when it is desired to input by voice, 'Aichi pref., Kariya-shi Showa town' but it is mis-recognized as 'Aichi pref., Kariya-shi Shoei town', 'Aichi-pref.' or 'Aichi-pref., Kariya-shi' composing a higher hieralrchical structure than 'town' level is set as a high-ranking hierarchical list which can be omitted, and a vertex to start collating can be down even to the city (shi) level or the town level (S40). For this reason, only the second voice-input of 'Shouwatown' can be understood as an input with the part of 'Aichi pref., Kariya-shi' omitted, and a voice recognition processing is executed according to the inputted voice. Namely, it is enough for the user to voice-input only 'Shouwatown' corresponding to the mis-recognized part.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えばナビゲーシ
ョンシステムにおける目的地の設定などを音声によって
入力できるようにする場合などに有効な音声認識装置及
びその音声認識装置を備えたナビゲーションシステムに
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech recognition apparatus which is effective for, for example, enabling a destination setting or the like in a navigation system to be input by speech, and a navigation system having the speech recognition apparatus.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】従来よ
り、入力された音声を予め記憶されている複数の比較対
象パターン候補と比較し、一致度合の高いものを認識結
果とする音声認識装置が既に実用化されており、例えば
ナビゲーションシステムにおいて設定すべき目的地を利
用者が地名を音声で入力するためなどに用いられてい
る。特に車載ナビゲーションシステムを運転手自身が利
用する場合、音声入力であればボタン操作や画面注視が
伴わないため、車両の走行中に行っても安全性が高いた
め有効である。
2. Description of the Related Art Conventionally, there has been proposed a speech recognition apparatus which compares an inputted speech with a plurality of pattern candidates to be compared which are stored in advance and determines a speech having a high degree of coincidence as a recognition result. It has already been put into practical use, and is used, for example, for a user to input a destination name to be set in a navigation system by voice. In particular, when the driver uses the in-vehicle navigation system, voice input does not involve button operation or screen gaze, so that it is effective because the safety is high even when the vehicle is running.

【0003】このような機能を満たすためには、十分詳
細な地点の指定が容易にできなくてはならない。具体的
には、県や市のレベルではなく、市の下の町名のレベル
や、町村における大字といったレベルまで入力できる必
要がある。さらに、利用者が例えば「愛知県刈谷市昭和
町」と設定したい場合に、「愛知県」「刈谷市」「昭和
町」というように県市町というレベル毎に区切って発音
しなくてはならないとすると利用者にとって煩わしいの
で、ひと続きで入力(一括入力)できるようにすること
が好ましい。
In order to satisfy such a function, it is necessary to easily specify a sufficiently detailed point. Specifically, it is necessary to be able to input not only the level of the prefecture and the city but also the level of the name of the town under the city and the level of the capital in the town and village. Furthermore, if the user wants to set, for example, "Showa-cho, Kariya-shi, Aichi", it must be pronounced separately for each level, such as "Aichi-ken", "Kariya-shi", "Showa-cho". Then, since it is troublesome for the user, it is preferable that input (batch input) can be performed continuously.

【0004】但し、このように一括入力に対応する構成
とした場合には、逆に利用者にとって使い勝手が悪くな
る状況も想定される。それは、設定すべき目的地を利用
者が再度入力しなくてはならない場合である。つまり、
現在の認識技術ではその認識結果が完全に正確なものと
は言い切れないため、一度の音声入力で必ずしも正確に
認識されるとは限らないからである。例えば利用者が
「愛知県刈谷市昭和(しょうわ)町」と音声で入力した
場合に、例えば「愛知県刈谷市松栄(しょうえい)町」
と誤って認識してしまうことが考えられる。そして、こ
のような誤認識の場合には、再度「愛知県刈谷市昭和
町」と音声入力する必要がある。
[0004] However, in the case of such a configuration corresponding to the batch input, a situation in which the usability is degraded for the user may be assumed. That is when the user has to re-enter the destination to be set. That is,
This is because the current recognition technology cannot always say that the recognition result is completely accurate, so that a single voice input does not always result in accurate recognition. For example, when the user inputs a voice as "Showa-cho, Kariya-shi, Aichi", for example, "Shoei-cho, Kariya-shi, Aichi"
May be mistakenly recognized. Then, in the case of such an erroneous recognition, it is necessary to input a voice again as "Showa-cho, Kariya city, Aichi prefecture".

【0005】しかしながら、日常生活における会話など
を考えると、このような誤認識の場合には、「愛知県刈
谷市昭和町」と音声入力するのではなく、誤認識された
町名だけを修正することが自然である。つまり、2回目
は「昭和町」だけを音声入力できるようにすることが好
ましいと考えられる。
However, considering conversations in daily life, in the case of such an erroneous recognition, it is necessary to correct only the erroneously recognized town name, instead of inputting a voice as "Showa-cho, Kariya-shi, Aichi Prefecture". Is natural. That is, it is considered preferable that the second time be able to input only "Showa-cho" by voice.

【0006】また、このような誤認識に起因するのでは
ないが、例えば車載ナビゲーションシステムを搭載した
車両が例えば愛知県内を走行しており、同じ愛知県内で
ある「愛知県刈谷市昭和町」を目的地として設定する場
合には、「愛知県刈谷市昭和町」と音声入力するのでは
なく、「愛知県」を省略して「刈谷市昭和町」と音声入
力する方が自然である。
Although not caused by such an erroneous recognition, a vehicle equipped with, for example, an on-vehicle navigation system is traveling in, for example, Aichi Prefecture. When setting as a destination, it is more natural to input a voice as "Showa-cho, Kariya-shi" without omitting "Aichi-ken", instead of inputting a voice as "Showa-cho, Kariya-shi, Aichi".

【0007】なお、このような問題は、上述した県市町
…からなる地名には限らず、同じように複数の語を階層
的につなぎ合わせたものとして設定されるものであれば
同様に適用できる。本発明は、このような問題を解決
し、音声認識装置への音声入力の対象が階層的構造の場
合に、上位階層を省略した方が自然な場合であっても上
位階層から音声入力しなくてはならないという利用者の
負担を軽減し、使い勝手をより向上させることを目的と
する。
[0007] Such a problem is not limited to the above-mentioned place names consisting of prefectures, municipalities, etc., but can be similarly applied as long as a plurality of words are similarly set as a hierarchical connection. . The present invention solves such a problem, and when the target of voice input to the voice recognition device has a hierarchical structure, even if it is more natural to omit the upper layer, voice input from the upper layer is not performed. The purpose is to reduce the burden on the user who must not do so and to improve the usability.

【0008】[0008]

【課題を解決するための手段及び発明の効果】上記目的
を達成するためになされた請求項1に記載の音声認識装
置は、音声を入力するための音声入力手段と、該音声入
力手段を介して入力された音声を、予め辞書手段に記憶
されている複数の比較対象パターン候補と比較して一致
度合の高いものを認識結果とする認識手段と、該認識手
段による認識結果を報知する報知手段と、該報知手段に
よって認識結果が報知された後に所定の確定指示がなさ
れた場合には、当該認識結果を確定したものとして所定
の確定後処理を実行する確定後処理手段とを備える音声
認識装置であって、前記辞書手段に記憶されている前記
複数の比較対象パターン候補の内の少なくとも一つは、
複数の語を階層的につなぎ合わせたものとして設定され
ており、前記複数の語を階層的につなぎ合わせた比較対
象パターン候補の上位階層を構成する語又は語群が、認
識処理時の省略対象として設定されている場合には、前
記認識手段が、その設定されている前記上位階層構成語
又は語群を省略したものも一時的に前記比較対象パター
ン候補と見なした上で、前記入力音声に対する比較を実
行するよう構成されていることを特徴とする。
Means for Solving the Problems and Effects of the Invention According to a first aspect of the present invention, there is provided a voice recognition device for inputting a voice, and a voice input device for inputting a voice. Means for comparing the input voice with a plurality of comparison target pattern candidates stored in advance in the dictionary means to obtain a recognition result having a high degree of coincidence, and a notifying means for notifying the recognition result by the recognition means And a post-confirmation processing means for executing a predetermined post-confirmation process assuming that the recognition result has been confirmed when a predetermined confirmation instruction is issued after the notification result is notified by the notification means. Wherein at least one of the plurality of comparison target pattern candidates stored in the dictionary means is:
A plurality of words are set as hierarchically connected, and the words or word groups constituting the upper layer of the comparison target pattern candidate in which the plurality of words are connected hierarchically are omitted in the recognition processing. In the case where the input speech is set, the recognition unit also temporarily considers the set upper-level constituent word or word group omitted as the comparison target pattern candidate. Characterized by performing a comparison against

【0009】請求項1に記載の音声認識装置によれば、
利用者が音声入力手段を介して音声を入力すると、認識
手段が、その入力された音声を予め辞書手段に記憶され
ている複数の比較対象パターン候補と比較して一致度合
の高いものを認識結果とし、報知手段によって認識結果
を報知する。そして、認識結果が報知された後に所定の
確定指示がなされた場合には、確定後処理手段が、その
認識結果を確定したものとして所定の確定後処理を実行
する。ここで、辞書手段に記憶されている複数の比較対
象パターン候補の内の少なくとも一つは、複数の語を階
層的につなぎ合わせたものとして設定されている。そし
てさらに、複数の語を階層的につなぎ合わせた比較対象
パターン候補の上位階層を構成する語又は語群が、認識
処理時の省略対象として設定されている場合には、認識
手段が、その設定されている上位階層構成語又は語群を
省略したものも一時的に比較対象パターン候補と見なし
た上で、入力音声に対する比較を実行する。
[0009] According to the voice recognition device of the first aspect,
When the user inputs a voice through the voice input unit, the recognition unit compares the input voice with a plurality of comparison target pattern candidates stored in the dictionary unit in advance, and recognizes the one having a high degree of matching. And a notification unit notifies the recognition result. Then, when a predetermined confirmation instruction is given after the recognition result is notified, the post-confirmation processing means executes the predetermined post-confirmation processing assuming that the recognition result has been confirmed. Here, at least one of the plurality of comparison target pattern candidates stored in the dictionary means is set as a plurality of words connected hierarchically. Further, when a word or a group of words constituting an upper layer of the comparison target pattern candidate in which a plurality of words are hierarchically connected is set as an object to be omitted in the recognition processing, the recognizing unit sets the word. Also, the comparison with the input voice is executed after temporarily omitting the upper hierarchical constituent word or the word group as a candidate for the comparison target pattern.

【0010】したがって、予め辞書手段に設定されてい
る比較対象パターン候補以外であっても、認識処理時の
省略対象として設定されている比較対象パターン候補の
上位階層構成語又は語群を省略したものも一時的に比較
対象パターン候補と見なされて入力音声に対する比較を
実行されるため、そのような上位階層構成語又は語群を
省略した音声入力も許容されることとなる。
Therefore, even if the comparison target pattern candidate is other than the comparison target pattern candidate previously set in the dictionary means, the upper layer constituent word or word group of the comparison target pattern candidate set as the omission target in the recognition processing is omitted. Is also temporarily regarded as a comparison target pattern candidate and the comparison with the input voice is executed, so that a voice input omitting such a higher hierarchical constituent word or word group is also allowed.

【0011】このことによる効果を明確にするため、認
識処理時の省略対象として設定される具体例を2つ挙げ
て説明する。まず、認識処理時の省略対象として設定さ
れる第1の具体例としては、例えば請求項2に示すよう
に、前記認識結果を報知した後の所定期間内に前回の認
識結果と同じ所定のカテゴリに属する音声入力がなされ
た場合の、その前回の認識結果の上位階層を構成する語
又は語群が考えられる。これによって、例えば利用者が
「愛知県刈谷市昭和(しょうわ)町」と音声で入力した
にもかかわらず、音声認識装置「愛知県刈谷市松栄(し
ょうえい)町」と誤って認識してしまった場合、利用者
が再度音声入力する際に「愛知県刈谷市昭和町」と音声
入力するのではなく、「昭和町」だけを音声入力するだ
けでよくなる。つまり、最初の音声入力である「愛知県
刈谷市昭和町」は、「愛知県」と「刈谷市」と「昭和
町」というそれぞれ地名としての異なるレベルを示す複
数の語を階層的につなぎ合わせたものであるため、その
上位階層を構成する語又は語群である「愛知県」あるい
は「愛知県刈谷市」が認識処理時の省略対象として設定
されることとなる。そのため、2回目には「昭和町」と
だけ音声入力するだけでも、それが「愛知県刈谷市」を
省略したものであると見なして入力音声に対する比較を
実行できる。もちろん、愛知県だけを省略して再度「刈
谷市昭和町」と音声入力するような状況にも対応でき
る。
In order to clarify the effect of this, two specific examples which are set as objects to be omitted in the recognition processing will be described. First, as a first specific example set as an omission target in the recognition processing, for example, as described in claim 2, within a predetermined period after notifying the recognition result, a predetermined category same as the previous recognition result is set. When a speech input belonging to is made, a word or a group of words constituting an upper layer of the previous recognition result can be considered. As a result, for example, even though the user has input by voice as "Showa-cho, Kariya-shi, Aichi Prefecture", the user has erroneously recognized the voice recognition device as "Shoei-cho, Kariya-shi, Aichi Prefecture". In this case, when the user inputs the voice again, instead of inputting the voice of "Showa-cho, Kariya-shi, Aichi", it is sufficient to input only the voice of "Showa-cho". In other words, the first voice input, "Showa-cho, Kariya-shi, Aichi" is a hierarchical connection of multiple words indicating different levels of place names, "Aichi-ken", "Kariya-shi", and "Showa-cho". Therefore, "Aichi Prefecture" or "Kariya City, Aichi Prefecture" which is a word or a group of words constituting the higher hierarchy is set as an omission target in the recognition processing. Therefore, even if the user only inputs a voice for "Showa-cho" for the second time, it is possible to perform comparison with the input voice on the assumption that the input is "Kariya-shi, Aichi". Of course, it is possible to cope with the situation where only Aichi Prefecture is omitted and the voice is input again as "Showa-cho in Kariya city".

【0012】このように、装置側に誤認識された場合
に、その誤認識された部分(上述の例では「昭和町」と
いう町名)だけを修正することは、日常生活における会
話などの習慣から考えると、ごく自然である。音声認識
装置を利用する場合に限って特別な注意を払うことを強
制するのは使い勝手の点で好ましくない。したがって、
本発明の音声認識装置のように、誤認識の部分だけ修正
するという日常会話の習慣においてごく自然な振舞いに
対応できることによって、上位階層を省略した方が自然
な場合であっても上位階層から音声入力しなくてはなら
ないという利用者の負担を軽減し、使い勝手をより向上
させることができるのである。
As described above, when a device is erroneously recognized, only the erroneously recognized portion (the town name "Showa-cho" in the above example) is corrected because of habits such as conversation in daily life. When you think about it, it's very natural. Forcing special attention only when using a voice recognition device is not preferable in terms of usability. Therefore,
As in the speech recognition apparatus of the present invention, it is possible to cope with a very natural behavior in a daily conversation habit of correcting only the erroneous recognition part. The user's burden of having to enter the information can be reduced, and usability can be further improved.

【0013】また、認識処理時の省略対象として設定さ
れる第2の具体例としては、例えば請求項4に示すよう
に、本音声認識装置による音声認識結果が利用されるシ
ステム中の当該音声認識装置以外の装置から入力するこ
とが考えられる。より、具体的には、例えば音声認識装
置がカーナビゲーションシステムにおいて目的地等を音
声で入力するために用いられたとすると、そのシステム
中のナビゲーション装置本体からの現在地情報等が考え
られる。つまり、ナビゲーションシステムを搭載した車
両が例えば愛知県内を走行しており、同じ愛知県内であ
る「愛知県刈谷市昭和町」を目的地として設定する場合
には、「愛知県刈谷市昭和町」と音声入力するのではな
く、「愛知県」を省略して「刈谷市昭和町」と音声入力
する方がやはり自然である。つまり、あえて愛知県から
特定しないでも、その下位階層である市レベルからの指
定で十分であると利用者が考えている状況である。
As a second specific example set as an object to be omitted in the recognition process, for example, as described in claim 4, the voice recognition in a system using the voice recognition result by the voice recognition device is used. Input from a device other than the device is conceivable. More specifically, if a voice recognition device is used to input a destination or the like by voice in a car navigation system, for example, current location information from a navigation device body in the system may be considered. In other words, if a vehicle equipped with a navigation system is traveling in Aichi Prefecture, for example, and if you set `` Showa Town in Kariya City, Aichi Prefecture '' as the destination in the same Aichi Prefecture, `` Showa Town in Kariya City, Aichi Prefecture '' It is more natural to omit "Aichi Prefecture" and input "Showa-cho Kariya" instead of voice input. In other words, there is a situation in which the user thinks that designation from the city level, which is the lower hierarchy, is sufficient even if the user does not specify from Aichi Prefecture.

【0014】このような場合でも、本発明の音声認識装
置であれば対応できる。つまり、上述の例であれば、車
両が現在愛知県内を走行しているのであれば、愛知県と
いう上位階層を認識処理時の省略対象として設定すれば
よいのである。このように、自分達が現在存在している
所定のエリア内については、そのエリアを特定する上位
階層の地名をあえて特定せず、その下位の階層から特定
するという日常会話の習慣においてごく自然な振舞いに
対応できることによって、上位階層を省略した方が自然
な場合であっても上位階層から音声入力しなくてはなら
ないという利用者の負担を軽減し、使い勝手をより向上
させることができるのである。
Even in such a case, the speech recognition apparatus of the present invention can cope with such a case. In other words, in the above example, if the vehicle is currently traveling in Aichi Prefecture, the upper hierarchy of Aichi Prefecture may be set as an omission target in the recognition processing. As described above, in a predetermined area in which the user is currently located, a place in the upper hierarchy for specifying the area is not dared to be specified, but is specified from the lower hierarchy. By being able to respond to the behavior, even if it is more natural to omit the upper layer, it is possible to reduce the user's burden of having to input voice from the upper layer, and to further improve the usability.

【0015】ところで、上述した音声認識装置において
は、認識手段が、その設定されている上位階層構成語又
は語群を省略したものも一時的に比較対象パターン候補
と見なした上で、入力音声に対する比較を実行するので
あるが、これを実行する上での構成例を2つ示してお
く。
In the above-described speech recognition apparatus, the recognition means temporarily omits the set upper-layer constituent word or word group as a comparison target pattern candidate, Is executed, two examples of the configuration for executing the comparison are shown below.

【0016】まず1つ目は、請求項5に示すように、認
識処理時の省略対象として設定されている上位階層構成
語又は語群を参照データとして一時的に記憶しておく参
照データ記憶手段を備えており、認識手段が、認識処理
実行の際、辞書手段に記憶されている複数の比較対象パ
ターン候補から参照データ記憶手段に記憶された参照デ
ータの上位階層を構成する語を省略したものも一時的に
比較対象パターン候補と見なした上で、今回の入力音声
に対する比較を実行する構成である。
First, as set forth in claim 5, a reference data storage means for temporarily storing, as reference data, an upper layer constituent word or word group set as an object to be omitted in the recognition processing. Wherein the recognition means omits words constituting the upper layer of the reference data stored in the reference data storage means from the plurality of comparison target pattern candidates stored in the dictionary means when performing the recognition processing. Is temporarily regarded as a comparison target pattern candidate, and then the comparison is performed with respect to the current input voice.

【0017】2つ目は、請求項6に示すように、前回の
認識結果が複数の語を階層的につなぎ合わせたものであ
る場合には、その認識結果を参照データとして一時的に
記憶しておく参照データ記憶手段と、参照データ記憶手
段に記憶された参照データに基づき、辞書手段に記憶さ
れている該当する比較対象パターン候補から参照データ
の上位階層を構成する語を省略した第2の比較対象パタ
ーン候補を新設する辞書制御手段とを備えており、辞書
制御手段によって第2の比較対象パターン候補が新設さ
れた状態の辞書手段に記憶されている比較対象パターン
候補を用いて、認識手段が今回の入力音声に対する比較
を実行する構成である。
Second, when the previous recognition result is obtained by connecting a plurality of words hierarchically, the recognition result is temporarily stored as reference data. A reference data storage unit that stores the reference data stored in the reference data storage unit, and a second configuration in which words constituting the upper layer of the reference data are omitted from the corresponding comparison target pattern candidates stored in the dictionary unit. Dictionary control means for newly establishing a comparison target pattern candidate, wherein the dictionary control means uses the comparison target pattern candidate stored in the dictionary means in a state where the second comparison target pattern candidate is newly established, and recognizes the recognition means. Is a configuration for executing comparison with the current input voice.

【0018】また、認識結果の報知後に所定の確定指示
がなされた場合には、その認識結果を確定したものとし
て所定の確定後処理へ移行すると説明したが、この「所
定の確定後処理」とは、例えばカーナビゲーションシス
テムに用いられた場合には、認識結果としての目的地を
設定する処理自体あるいは目的地設定処理を実行する装
置側へその目的地を設定するよう指示する処理などが考
えられる。また、認識結果の報知後の「所定の確定指
示」に関しては、やはり音声で入力(例えば「はい」と
発声することで入力)したり、確定ボタンのようなスイ
ッチ類の操作によって指示したりすることが考えられ
る。
Also, when a predetermined confirmation instruction is given after the notification of the recognition result, it is described that the recognition result has been determined and the process proceeds to the predetermined post-confirmation processing. For example, when used in a car navigation system, a process itself for setting a destination as a recognition result or a process for instructing a device that executes the destination setting process to set the destination may be considered. . In addition, the "predetermined confirmation instruction" after the notification of the recognition result is input by voice (for example, input by uttering "yes") or instructed by operating switches such as a confirmation button. It is possible.

【0019】また、比較対象パターンを除外して認識結
果を決定する場合の条件として、認識結果を報知した後
の所定期間内に再度音声入力がなされることを挙げてい
るが、この「所定期間内」としては、認識結果の報知後
に前記所定の確定指示がなされるまでとすることが考え
られる。つまり、確定指示がなされて所定の確定後処理
へ移行するということは正しい認識結果であったことを
意味するため、次回の音声入力についての最初の認識処
理については、前回の処理で省略対象として設定してい
たものをそのまま継続はしないようにする。特に、前回
の認識結果からその上位階層を構成する語又は語群を省
略対象として設定する場合には、装置側の誤認識に基づ
くものであり、それを次回の音声入力についての認識処
理についてまで持ち越すことは基本的には不適切である
からである。但し、現在地に基づいて県名などを省略す
るような場合には、結果的に省略対象が同じになること
は考えられる。
The condition for determining the recognition result excluding the pattern to be compared is that a voice input is made again within a predetermined period after the notification of the recognition result. As the “inside”, it is conceivable that the predetermined confirmation instruction is issued after the notification of the recognition result. In other words, when the confirmation instruction is given and the process proceeds to the predetermined post-confirmation processing, it means that the recognition result is correct. Therefore, the first recognition processing for the next voice input is set to be omitted in the previous processing. Do not continue what you have set. In particular, when a word or a group of words constituting the higher hierarchy is set as an abbreviated target from the previous recognition result, it is based on erroneous recognition on the device side, and is set as a recognition process for the next speech input. This is because carrying over is basically inappropriate. However, in the case where the name of the prefecture is omitted based on the current location, it is conceivable that the object to be omitted is the same as a result.

【0020】さらに、前記認識結果の報知に関しては、
所定の音声発生装置から認識結果の内容を音声にて出力
することにより行うことが考えられる。カーナビゲーシ
ョンシステムなどの車載機器用として用いる場合には、
音声で出力されれば、ドライバーは視点を表示装置にず
らしたりする必要がないので、安全運転のより一層の確
保の点では有利であると言える。但し、音声出力に限定
されるものではなく、画面上に文字または記号を表示で
きる表示装置に、認識結果の内容を、文字または記号に
よる画像にて表示することにより行ったり、音声及び画
像の両方にて報知するようにしてもよいし、それら以外
の報知の手法を採用してもよい。車載機器として適用す
る場合に音声出力が有利であることを述べたが、もちろ
ん車両が走行中でない状況もあるので、音声及び画像の
両方で報知すれば、ドライバーは表示による確認と音声
による確認との両方が可能となる。
Further, regarding the notification of the recognition result,
This may be performed by outputting the content of the recognition result as a voice from a predetermined voice generating device. When used for in-vehicle devices such as car navigation systems,
If the voice is output, the driver does not need to shift the viewpoint to the display device, which is advantageous in terms of further ensuring safe driving. However, the present invention is not limited to audio output, and the content of the recognition result may be displayed on a display device capable of displaying characters or symbols on a screen by displaying images of the characters or symbols. May be notified, or other notification methods may be employed. It was mentioned that voice output is advantageous when applied as an in-vehicle device, but of course there are also situations where the vehicle is not running, so if both the voice and the image are used, the driver can confirm with the display and with the voice Both are possible.

【0021】また、請求項1〜7のいずれかに記載の音
声認識装置をナビゲーションシステム用として用いる場
合には、請求項8に示すように構成することが考えられ
る。すなわち、請求項1〜7のいずれかに記載の音声認
識装置と、ナビゲーション装置とを備え、音声認識装置
の音声入力手段は、少なくともナビゲーション装置がナ
ビゲート処理をする上で指定される必要のある所定のナ
ビゲート処理関連データの指示を利用者が音声にて入力
するために用いられるものであり、確定後処理手段は、
認識手段による認識結果をナビゲーション装置に出力す
るよう構成されているのである。この場合の「所定のナ
ビゲート処理関連データ」としては、目的地が代表的な
ものとして挙げられるが、それ以外にもルート探索に関
する条件選択など、ナビゲート処理をする上で指定の必
要のある指示が含まれる。そしてこの場合は、認識結果
としてのナビゲート処理関連情報を報知することとなる
が、上述したように、一度音声入力した地名の一部が誤
認識されていた場合に、その誤っている下位階層だけを
再入力すればよくなるなど、利用者の使い勝手が向上す
る。
When the speech recognition device according to any one of claims 1 to 7 is used for a navigation system, it is conceivable that the speech recognition device is configured as shown in claim 8. That is, a voice recognition device according to any one of claims 1 to 7 and a navigation device are provided, and the voice input means of the voice recognition device needs to be specified at least when the navigation device performs a navigation process. The user is used to input an instruction of predetermined navigation-related data by voice, and the post-confirmation processing means includes:
It is configured to output the result of recognition by the recognition means to the navigation device. In this case, the “predetermined navigation processing-related data” is a typical destination, but other than that, it is necessary to specify the navigation processing, such as selecting conditions for a route search. Instructions are included. In this case, the navigation processing-related information as the recognition result is notified. As described above, when a part of the place name once input by voice is erroneously recognized, the erroneous lower hierarchical layer is recognized. The user's usability is improved, for example, the user only has to re-enter the password.

【0022】なお、特に現在走行している場所の県名な
どを省略しての入力をできるようにする点では請求項9
に記載の構成が好ましい。つまり、請求項4に記載の音
声認識装置と、ナビゲーション装置とを備え、音声認識
装置の音声入力手段は、少なくともナビゲーション装置
がナビゲート処理をする上で指定される必要のある所定
の地名関連データの指示を利用者が音声にて入力するた
めに用いられるものであり、確定後処理手段は、認識手
段による認識結果を前記ナビゲーション装置に出力する
ナビゲーションシステムであって、ナビゲーション装置
は、現在地を検出する現在地検出手段と、該現在地検出
手段によって検出した現在地が、複数の語を階層的につ
なぎ合わせた前記比較対象パターン候補として表せる場
合には、その上位階層を構成する語又は語群を、認識処
理時の省略対象として前記音声認識装置に出力する省略
対象データ出力手段とを備えることを特徴とする。
It should be noted that, in particular, in the point that the name of the prefecture where the vehicle is currently traveling can be omitted and input can be made.
Are preferred. That is, the voice recognition device according to claim 4 and a navigation device, wherein the voice input means of the voice recognition device is provided with at least predetermined place name-related data required to be specified when the navigation device performs a navigation process. Is used for the user to input the instruction by voice, and the post-confirmation processing means is a navigation system that outputs the result of recognition by the recognition means to the navigation device, wherein the navigation device detects the current location. If the current position detected by the current position detecting means and the current position detected by the current position detecting means can be represented as the comparison target pattern candidate in which a plurality of words are hierarchically connected, a word or a group of words constituting the upper hierarchy is recognized. And an omission target data output means for outputting to the voice recognition device as an omission target at the time of processing. That.

【0023】この場合には、ナビゲーション装置が、そ
の基本機能を発揮する上で現在地を検出する機能を備え
るため、その検出した現在地から例えば現在走行してい
る場所の県名を省略対象として設定することができる。
なお、音声認識装置の適用先としては、上述したナビゲ
ーションシステムには限定されない。例えば音声認識装
置を空調システム用として用いる場合には、設定温度の
調整、空調モード(冷房・暖房・ドライ)の選択、ある
いは風向モードの選択を音声入力によって行うようにす
ることが考えられる。
In this case, since the navigation device has a function of detecting the current position in order to exhibit its basic function, for example, the prefecture name of the place where the vehicle is currently traveling is set as an abbreviation target from the detected current position. be able to.
The application destination of the voice recognition device is not limited to the navigation system described above. For example, when the voice recognition device is used for an air conditioning system, it is conceivable to adjust the set temperature, select an air conditioning mode (cooling / heating / dry), or select a wind direction mode by voice input.

【0024】例えば設定温度について言えば、「設定温
度を25度にする」や「設定温度を5度下げる」という
ように、設定温度に関する指示であるが、その指示内容
について複数存在する場合である。本発明を適用すれ
ば、「設定温度を25度にする」と入力したのに「設定
温度を22度にする」と誤認識した場合には、再度の音
声入力では「25度にする」だけ入力すればよくなり、
やはり利用者の使い勝手が向上する。空調モードや風向
モードなどについても同様である。
For example, as for the set temperature, there are instructions relating to the set temperature, such as "decrease the set temperature to 25 degrees" or "decrease the set temperature by 5 degrees". . If the present invention is applied, if the user inputs "set the temperature to 25 degrees" but erroneously recognizes "set the temperature to 22 degrees", re-inputting only "set the temperature to 25 degrees" Just type in,
After all, the usability of the user is improved. The same applies to the air conditioning mode and the wind direction mode.

【0025】つまり、「複数の語を階層的につなぎ合わ
せたものとして設定されている比較対象パターン候補」
としては、上述したナビゲーションシステムにおける地
名のような県市町…という階層関係だけでなく、上述し
た空調システムにおいて調整対象(例えば設定温度)を
上位階層とし、それに対する調整内容(例えば25度に
する)を下位階層とするといったこともできる。
In other words, “a candidate pattern for comparison set as a plurality of words hierarchically connected”
In the navigation system described above, not only the hierarchical relationship of prefectures, cities, and so on like place names, but also the adjustment target (for example, set temperature) in the air conditioning system described above is set to the upper hierarchy, and the adjustment content (for example, 25 degrees) is made. Can be a lower layer.

【0026】なお、上述のナビゲーションシステム及び
空調システムは、車載機器として用いられる場合だけで
はなく、例えば携帯型ナビゲーション装置や屋内用空調
装置などでもよい。但し、これまで説明したように車載
機器用として用いる場合には利用者がドライバーである
ことが考えられ、その場合には運転自体が最重要であ
り、それ以外の車載機器については、なるべく運転に支
障がないことが好ましい。したがって、車載機器として
のナビゲーションシステムや空調システムを前提とした
音声認識装置の場合には、より一層の利点がある。もち
ろん、このような視点で考えるならば、ナビゲーション
システムや空調システム以外の車載機器に対しても同様
に利用することができる。例えば、カーオーディオ機器
などは有効である。また、いわゆるパワーウインドウの
開閉やミラー角度の調整などを音声によって指示するよ
うな構成を考えれば、そのような状況でも有効である。
The above navigation system and air conditioning system are not limited to the case where they are used as in-vehicle equipment, but may be, for example, a portable navigation device or an indoor air conditioner. However, as described above, when used for in-vehicle equipment, the user may be a driver. In that case, driving itself is the most important. For other in-vehicle equipment, drive as much as possible. Preferably, there is no hindrance. Therefore, in the case of a voice recognition device on the premise of a navigation system or an air conditioning system as an in-vehicle device, there is a further advantage. Of course, from such a viewpoint, the present invention can be similarly applied to in-vehicle devices other than the navigation system and the air conditioning system. For example, a car audio device is effective. Also, considering a configuration in which opening and closing of the power window and adjustment of the mirror angle are instructed by voice, it is effective even in such a situation.

【0027】[0027]

【発明の実施の形態】図1は本発明の実施形態の音声認
識装置30を適用したカーナビゲーションシステム2の
概略構成を示すブロック図である。本カーナビゲーショ
ンシステム2は、位置検出器4、地図データ入力器6、
操作スイッチ群8、これらに接続された制御回路10、
制御回路10に接続された外部メモリ12、表示装置1
4及びリモコンセンサ15及び音声認識装置30を備え
ている。なお制御回路10は通常のコンピュータとして
構成されており、内部には、周知のCPU、ROM、R
AM、I/O及びこれらの構成を接続するバスラインが
備えられている。
FIG. 1 is a block diagram showing a schematic configuration of a car navigation system 2 to which a voice recognition device 30 according to an embodiment of the present invention is applied. The car navigation system 2 includes a position detector 4, a map data input device 6,
An operation switch group 8, a control circuit 10 connected thereto,
External memory 12 connected to control circuit 10, display device 1
4 and a remote control sensor 15 and a voice recognition device 30. The control circuit 10 is configured as a normal computer, and has a well-known CPU, ROM, R
A bus line for connecting AM, I / O, and these components is provided.

【0028】前記位置検出器4は、いずれも周知の地磁
気センサ16、ジャイロスコープ18、距離センサ2
0、及び衛星からの電波に基づいて車両の位置を検出す
るGPS(Global Positioning System )のためのGP
S受信機22を有している。これらのセンサ等16,1
8,20,22は各々が性質の異なる誤差を持っている
ため、複数のセンサにより、各々補間しながら使用する
ように構成されている。なお、精度によっては上述した
内の一部で構成してもよく、更に、ステアリングの回転
センサ、各転動輪の車輪センサ等を用いてもよい。
The position detector 4 includes a well-known geomagnetic sensor 16, a gyroscope 18, and a distance sensor 2.
0, and GP for Global Positioning System (GPS) that detects the position of the vehicle based on radio waves from satellites
It has an S receiver 22. These sensors, etc.
Each of 8, 20, and 22 has an error having a different property, and is configured to be used while being interpolated by a plurality of sensors. It should be noted that depending on the accuracy, a part of the above-described components may be used, and a rotation sensor for the steering wheel, a wheel sensor for each rolling wheel, or the like may be used.

【0029】地図データ入力器6は、位置検出の精度向
上のためのいわゆるマップマッチング用データ、地図デ
ータ及び目印データを含む各種データを入力するための
装置である。媒体としては、そのデータ量からCD−R
OMを用いるのが一般的であるが、メモリカード等の他
の媒体を用いても良い。
The map data input device 6 is a device for inputting various data including so-called map matching data, map data and landmark data for improving the accuracy of position detection. As a medium, CD-R
Although OM is generally used, another medium such as a memory card may be used.

【0030】表示装置14はカラー表示装置であり、表
示装置14の画面には、位置検出器4から入力された車
両現在位置マークと、地図データ入力器6より入力され
た地図データと、更に地図上に表示する誘導経路や後述
する設定地点の目印等の付加データとを重ねて表示する
ことができる。
The display device 14 is a color display device. On the screen of the display device 14, a vehicle current position mark input from the position detector 4, map data input from the map data input device 6, and a map It is possible to superimpose and display additional data such as a guidance route displayed above and a mark of a set point described later.

【0031】また、本カーナビゲーションシステム2
は、リモートコントロール端末(以下、リモコンと称す
る。)15aを介してリモコンセンサ15から、あるい
は操作スイッチ群8により目的地の位置を入力すると、
現在位置からその目的地までの最適な経路を自動的に選
択して誘導経路を形成し表示する、いわゆる経路案内機
能も備えている。このような自動的に最適な経路を設定
する手法は、ダイクストラ法等の手法が知られている。
操作スイッチ群8は、例えば、表示装置14と一体にな
ったタッチスイッチもしくはメカニカルなスイッチ等が
用いられ、各種入力に使用される。
The present car navigation system 2
Is input from the remote control sensor 15 via a remote control terminal (hereinafter referred to as a remote control) 15a or the position of the destination by the operation switches 8;
It also has a so-called route guidance function that automatically selects an optimal route from the current position to the destination and forms and displays a guidance route. As a technique for automatically setting the optimum route, a technique such as the Dijkstra method is known.
The operation switch group 8 is, for example, a touch switch integrated with the display device 14 or a mechanical switch, and is used for various inputs.

【0032】そして、音声認識装置30は、上記操作ス
イッチ群8あるいはリモコン15aが手動操作により目
的地などを指示するために用いられるのに対して、利用
者が音声で入力することによっても同様に目的地などを
指示することができるようにするための装置である。
The voice recognition device 30 is used when the operation switch group 8 or the remote controller 15a is manually operated to indicate a destination or the like, and similarly when the user inputs voice. This is a device that allows the user to specify a destination or the like.

【0033】この音声認識装置30は、「認識手段」と
しての音声認識部31と、対話制御部32と、音声合成
部33と、音声入力部34と、「音声入力手段」として
のマイク35と、PTT(Push-To-Talk)スイッチ36
と、スピーカ37とを備えている。
The voice recognition device 30 includes a voice recognition unit 31 as a "recognition unit", a dialogue control unit 32, a voice synthesis unit 33, a voice input unit 34, and a microphone 35 as a "voice input unit". , PTT (Push-To-Talk) switch 36
And a speaker 37.

【0034】音声認識部31は、音声入力部34から入
力された音声データを、対話制御部32からの指示によ
り入力音声の認識処理を行い、その認識結果を対話制御
部32に返す。すなわち、音声入力部34から取得した
音声データに対し、記憶している辞書データを用いて照
合を行ない、複数の比較対象パターン候補と比較して一
致度の高い上位比較対象パターンを対話制御部32へ出
力する。入力音声中の単語系列の認識は、音声入力部3
4から入力された音声データを順次音響分析して音響的
特徴量(例えばケプストラム)を抽出し、この音響分析
によって得られた音響的特徴量時系列データを得る。そ
して、周知のDPマッチング法によって、この時系列デ
ータをいくつかの区間に分け、各区間が辞書データとし
て格納されたどの単語に対応しているかを求める。
The voice recognition unit 31 performs a recognition process on the voice data input from the voice input unit 34 according to an instruction from the dialog control unit 32, and returns the recognition result to the dialog control unit 32. That is, the voice data acquired from the voice input unit 34 is collated using the stored dictionary data, and a higher-level comparison target pattern having a higher degree of matching as compared with a plurality of comparison target pattern candidates is determined. Output to The recognition of the word sequence in the input voice is performed by the voice input unit 3
The sound data inputted from the step 4 are sequentially subjected to acoustic analysis to extract an acoustic feature (for example, cepstrum), and to obtain acoustic feature time-series data obtained by the acoustic analysis. Then, the time-series data is divided into several sections by a well-known DP matching method, and it is determined which word each section corresponds to stored in the dictionary data.

【0035】対話制御部32は、その認識結果及び自身
が管理する内部状態から、音声合成部33への応答音声
の発声指示や、システム自体の処理を実行する制御回路
10に対して例えばナビゲート処理のために必要な目的
地を通知して設定処理を実行させるよう指示する処理を
実行する。このような処理が確定後処理であり、結果と
して、この音声認識装置30を利用すれば、上記操作ス
イッチ群8あるいはリモコン15aを手動しなくても、
音声入力によりナビゲーション装置に対する目的地の指
示などが可能となるのである。
From the recognition result and the internal state managed by itself, the dialogue control unit 32 navigates, for example, to the control circuit 10 which instructs the voice synthesizer 33 to generate a response voice and executes the processing of the system itself. A process for notifying a destination necessary for the process and instructing to execute the setting process is executed. Such processing is post-confirmation processing. As a result, if this voice recognition device 30 is used, the operation switch group 8 or the remote controller 15a can be operated without manual operation.
By voice input, it is possible to instruct a destination to the navigation device.

【0036】また音声入力部34は、マイク35にて取
り込んだ周囲の音声をデジタルデータに変換して音声認
識部31に出力するものである。本実施形態において
は、利用者がPTTスイッチ36を押しながらマイク3
5を介して音声を入力するという使用方法である。具体
的には、音声入力部34はPTTスイッチ36が押され
たかどうかを判断しており、PTTスイッチ36が押さ
れている場合にはマイク35を介しての音声入力処理を
実行するが、押されていない場合にはその音声入力処理
を実行しないようにしている。したがって、PTTスイ
ッチ36が押されている間にマイク35を介して入力さ
れた音声データのみが音声認識部31へ出力されること
となる。
The voice input unit 34 converts the surrounding voice captured by the microphone 35 into digital data and outputs the digital data to the voice recognition unit 31. In the present embodiment, the user presses the PTT switch 36 while pressing the microphone 3.
This is a usage method of inputting a voice through the terminal 5. Specifically, the voice input unit 34 determines whether or not the PTT switch 36 has been pressed. When the PTT switch 36 has been pressed, the voice input unit 34 executes voice input processing via the microphone 35. If not, the voice input process is not executed. Therefore, only the voice data input via the microphone 35 while the PTT switch 36 is pressed is output to the voice recognition unit 31.

【0037】ここで、音声認識部31と対話制御部32
についてさらに説明する。図2は、この音声認識部31
と対話制御部32の構成をさらに詳しく示したものであ
り、(A),(B)の2つの構成例を説明する。まず、
図2(A)に示す構成では、音声認識部31が照合部3
1aと辞書部31bとで構成されており、対話制御部3
2が記憶部32a、入力部32b及び後処理部32cで
構成されている。音声認識部31においては、照合部3
1aが、音声入力部34から取得した音声データに対
し、辞書部31b内に記憶されている辞書データを用い
て照合を行なうのであるが、詳しくは、まずは対話制御
部32の記憶部32aに参照すべきデータがあれば、そ
れを参照して省略可能な上位階層リストを作成する。そ
して、その省略可能な上位階層部分を辞書部31b内に
記憶されている辞書データから省略したものも一時的に
比較対象パターン候補と見なした上で照合を行なうので
ある。この照合の詳細については後述する。
Here, the speech recognition unit 31 and the dialogue control unit 32
Will be further described. FIG. 2 shows the voice recognition unit 31.
4 shows the configuration of the dialogue control unit 32 in more detail, and two configuration examples (A) and (B) will be described. First,
In the configuration shown in FIG. 2A, the voice recognition unit 31
1a and a dictionary unit 31b.
2 comprises a storage unit 32a, an input unit 32b, and a post-processing unit 32c. In the voice recognition unit 31, the matching unit 3
1a compares the voice data acquired from the voice input unit 34 with the dictionary data stored in the dictionary unit 31b. For details, first refer to the storage unit 32a of the dialog control unit 32. If there is data to be created, an upper layer list that can be omitted is created with reference to the data. Then, collation is performed after temporarily omitting the upper layer part that can be omitted from the dictionary data stored in the dictionary unit 31b as a comparison target pattern candidate. The details of this collation will be described later.

【0038】そして、照合部31aにて複数の比較対象
パターン候補と比較されて一致度が高いとされた上位比
較対象パターンは、対話制御部32の記憶部32aへ出
力すされることとなる。ところで、本実施形態の辞書部
31bに記憶されている辞書データは、比較対象パター
ン候補となる語彙そのもののデータだけでなく、その比
較対象パターンとなる語彙が複数の語を階層的につなぎ
合わせたものである場合には、その階層構造を示すデー
タも記憶されている。具体的には、語彙を構成する音節
データが図3に示すように木(tree)構造の各辺(図3
において矢印(→)で示す)に割り付けられている。な
お、図3において、一重丸(○)は頂点を表し、二重丸
(◎)は受理頂点、すなわち単語に対する頂点を表す。
そして、図3中の矢印Aで示す頂点が「根」となり、そ
こから先行順走査(preorder traversal)にしたがって
各辺に割り付けられ音節を辿ることで単語が完成する。
ここで「先行順走査」とは、根を訪問し、次に子を根と
する部分木を順番に走査(この走査も先行順走査であ
る。)していくことを指す。なお、ここで、「親」とは
直前の頂点、「子」とは次の頂点、「兄弟」とは同じ親
を持つ頂点同士をそれぞれ意味する。
Then, the higher-order comparison target pattern which is compared with the plurality of comparison target pattern candidates by the collating unit 31a and whose degree of coincidence is high is output to the storage unit 32a of the dialogue control unit 32. By the way, the dictionary data stored in the dictionary unit 31b of the present embodiment includes not only the data of the vocabulary itself as a comparison target pattern candidate, but also a vocabulary serving as the comparison target pattern in which a plurality of words are hierarchically connected. If it is, the data indicating the hierarchical structure is also stored. More specifically, the syllable data constituting the vocabulary is divided into the respective sides (FIG. 3) of the tree structure as shown in FIG.
Are indicated by arrows (→)). In FIG. 3, a single circle (○) represents a vertex, and a double circle (◎) represents a received vertex, that is, a vertex for a word.
Then, the vertex indicated by the arrow A in FIG. 3 becomes the “root”, from which the word is completed by tracing syllables assigned to each side according to preorder traversal.
Here, "preceding forward scan" means that a root is visited, and then a subtree having a child as a root is sequentially scanned (this scan is also a forward forward scan). Here, “parent” means the immediately preceding vertex, “child” means the next vertex, and “sibling” means vertices having the same parent.

【0039】つまり、図3に示す具体例では、「根」と
なる頂点(矢印Aで示す)から順に辿ると「あいちけ
ん」となって矢印Bで示す受理頂点となる。したがっ
て、「あいちけん(愛知県)」で一つの認識対象単語と
なる。そして、さらにその矢印Bで示す受理頂点を経由
して「かりやし」となって矢印Cで示す受理頂点とな
る。したがって、あいちけんかりやし(愛知県刈谷
市)」でも一つの認識対象単語となる。さらにその矢印
Cで示す受理頂点を経由して「子」の頂点がある。図3
には図示しないが例えば「しょうわちょう」と辿ること
ができて受理頂点があるため、「あいちけんかりやしし
ょうわちょう(愛知県刈谷市昭和町)」でも一つの認識
対象単語である。
That is, in the specific example shown in FIG. 3, when the vertices (indicated by arrow A) which are the roots are sequentially traced, the vertices become "Aichiken" and become the accepted vertices indicated by arrow B. Therefore, "Aichiken (Aichi Prefecture)" is one recognition target word. Then, through the reception vertex indicated by the arrow B, “Kariyashi” is formed and the reception vertex indicated by the arrow C is obtained. Therefore, "Aichi Ken Kariyashi (Kariya City, Aichi Prefecture)" is also one recognition target word. Further, there is a vertex of “child” via the receiving vertex indicated by the arrow C. FIG.
Although it is not shown in the figure, since it can be traced as "showacho" and has an acceptance vertex, "aichikenkariya shishowacho (Showa-cho, Kariya city, Aichi prefecture)" is one recognition target word.

【0040】この場合には、例えば「あいちけんかりや
ししょうわちょう(愛知県刈谷市昭和町)」という一つ
の認識対象単語は、「あいちけん(愛知県)」と「かり
やし(刈谷市)」と「しょうわちょう(昭和町)」とい
う3つの語が階層的につなぎ合わせたものである。した
がって、このように3階層となっているということが図
3に矢印B,Cで示す受理頂点の存在によって判る。つ
まり、受理頂点はそこまで辿ってきた音節データで単語
が構成されることを示すが、逆にその受理頂点から下流
側にさらに音節データがある場合には、その受理頂点よ
りも上流側が上位階層となり、下流側が下位階層とな
る。例えば、図3に矢印Bで示す受理頂点を考えると、
上流側の「あいちけん(愛知県)」が上位階層であり、
下流側の「かりやし(刈谷市)……」が下位階層であ
る。つまり、この場合には県を示す語が上位階層で、市
レベル以下を示す語が下位階層となる。また、図3に矢
印Cで示す受理頂点を考えると、上流側の「あいちけん
かりやし(愛知県刈谷市)」が上位階層であり、図3に
は示していないが下流側の例えば「しょうわちょう(昭
和町)」が下位階層となる。
In this case, for example, one recognition target word such as “Aichiken Kariyashi Showacho” (Kawatani City, Aichi Prefecture) is composed of “Aichiken (Aichi Prefecture)” and “Kariyashi (Kariya City). )) And Showacho (Showa-cho) are hierarchically connected. Therefore, it can be seen that there are three hierarchies by the existence of the reception vertices indicated by arrows B and C in FIG. In other words, the accepted vertex indicates that a word is composed of the syllable data that has been traced to it. Conversely, if there is more syllable data downstream from the accepted vertex, the upstream side of the accepted vertex is in the upper hierarchy. And the downstream side is the lower hierarchy. For example, consider the receiving vertex indicated by arrow B in FIG.
"Aichiken (Aichi Prefecture)" on the upstream side is the upper hierarchy,
"Kalyashi (Kariya City) ..." on the downstream side is the lower hierarchy. That is, in this case, the word indicating the prefecture is the upper hierarchy, and the word indicating the city level or lower is the lower hierarchy. In addition, considering the reception vertex indicated by arrow C in FIG. 3, “Aichiken Kariyashi (Kariya City, Aichi Prefecture)” on the upstream side is the upper hierarchy, and is not shown in FIG. "Wachi (Showa-cho)" is the lower hierarchy.

【0041】以上は辞書部31bに記憶されている辞書
データの説明として、愛知県刈谷市昭和町という具体例
で説明したが、基本的には都道府県を最上位階層とし、
市レベルを2番目の階層、町レベルを3番目の階層とし
て他の地名についてもデータが設定されている。なお、
「基本的に」といったのは、県の次の市レベルで「町」
や「村」が来る地名もあるからである。
In the above description, the dictionary data stored in the dictionary unit 31b has been described with reference to the specific example of Showa-cho, Kariya city, Aichi prefecture.
Data is set for other place names with the city level as the second level and the town level as the third level. In addition,
"Basically" means "town" at the next city level in the prefecture
And "villages" come in some places.

【0042】辞書部31bの説明はこれで終わることと
する。上述したように、音声認識部31においては、照
合部31aが、音声入力部34から取得した音声データ
に対し、辞書部31b内に記憶されている複数の比較対
象パターン候補と比較して一致度の高い上位比較対象パ
ターンを対話制御部32の記憶部32aへ出力する。そ
して記憶部32aでは、この上位比較対象パターンを記
憶しておく。また、入力部32bは制御回路10からの
外部状況を入力するのであるが、その入力した外部状況
も記憶部32aに記憶される。この場合の外部状況と
は、上述した位置検出器4によって検出した位置に基づ
く現在地のデータである。なお、この記憶部32aに記
憶された上位比較対象パターンや入力した外部状況であ
る現在地データなどは、所定の確定指示がなされた場合
にはクリアされる。
The description of the dictionary section 31b is completed here. As described above, in the voice recognition unit 31, the matching unit 31a compares the voice data acquired from the voice input unit 34 with the plurality of comparison target pattern candidates stored in the dictionary unit 31b to determine the degree of matching. Is output to the storage unit 32a of the interaction control unit 32. The storage unit 32a stores the upper comparison target pattern. The input unit 32b inputs an external situation from the control circuit 10, and the inputted external situation is also stored in the storage unit 32a. The external situation in this case is data on the current position based on the position detected by the position detector 4 described above. It should be noted that the upper comparison target pattern stored in the storage unit 32a and the current location data as the input external situation are cleared when a predetermined confirmation instruction is given.

【0043】そして、後処理部32cでは、例えば上記
所定の確定指示がなされた場合に制御回路10へデータ
を送って所定の処理をするように指示する「確定後処
理」を実行したり、あるいは音声合成部33へ音声デー
タを送って発音させるように指示する処理を実行する。
なお、この場合の制御回路10へ送るデータとしては、
最終的な認識結果としての上位比較対象パターンの全て
でもよいし、あるいはその内の最上位のものだけでもよ
い。
In the post-processing section 32c, for example, when the above-mentioned predetermined confirmation instruction is given, the data is sent to the control circuit 10 to execute "predetermination processing" for instructing the control circuit 10 to perform a predetermined processing. A process for instructing the voice synthesizing unit 33 to transmit the voice data and generate a sound is executed.
The data to be sent to the control circuit 10 in this case includes
All of the upper comparison target patterns as the final recognition result may be used, or only the uppermost pattern may be used.

【0044】一方、図2(B)に示す構成では、音声認
識部31が照合部131aと辞書部131bとで構成さ
れており、対話制御部32が記憶部132a、入力部1
32b、後処理部132c及び辞書制御部132dで構
成されている。上記図2(A)に示す構成では、対話制
御部32の記憶部32aに参照すべきデータがあれば、
音声認識部31の照合部31aが対話制御部32の記憶
部32aに記憶されている参照データを参照して省略可
能な上位階層リストを作成し、それに基づいて照合処理
を行なうようにしていたが、図2(B)の構成では、照
合部31aにおける照合処理に先だって、対話制御部3
2の辞書制御部132dが辞書31bに記憶されている
辞書データの制御を行なう。具体的には、記憶部132
aに記憶されている参照データを参照して省略可能な上
位階層リストを作成し、その省略可能な上位階層部分を
辞書部31b内に記憶されている辞書データから一時的
に省略する。このように辞書制御がなされた辞書データ
を用いて照合部31aが照合処理を実行するのである。
On the other hand, in the configuration shown in FIG. 2B, the voice recognition section 31 is composed of a collation section 131a and a dictionary section 131b, and the dialogue control section 32 is composed of a storage section 132a and an input section 1a.
32b, a post-processing unit 132c, and a dictionary control unit 132d. In the configuration shown in FIG. 2A, if there is data to be referred to in the storage unit 32a of the dialog control unit 32,
The matching unit 31a of the voice recognition unit 31 creates an upper layer list that can be omitted by referring to the reference data stored in the storage unit 32a of the dialog control unit 32, and performs the matching process based on the list. In the configuration of FIG. 2B, the dialogue control unit 3
The second dictionary control unit 132d controls the dictionary data stored in the dictionary 31b. Specifically, the storage unit 132
A list of upper layers that can be omitted is created with reference to the reference data stored in a, and the upper layer part that can be omitted is temporarily omitted from the dictionary data stored in the dictionary unit 31b. The collation unit 31a executes the collation processing using the dictionary data thus controlled.

【0045】なお、後処理部132cの動作は、上記図
2(A)の場合と同様なので、ここでは説明を省略す
る。次に、本実施形態1のカーナビゲーションシステム
2の動作について説明する。なお、音声認識装置30に
関係する部分が特徴であるので、カナビゲーションシス
テムとしての一般的な動作を簡単に説明した後、音声認
識装置30に関係する部分の動作について詳しく説明す
ることとする。
The operation of the post-processing unit 132c is the same as that in the case of FIG. Next, the operation of the car navigation system 2 of the first embodiment will be described. In addition, since a portion related to the voice recognition device 30 is a feature, a general operation as a car navigation system will be briefly described, and then, an operation of a portion related to the voice recognition device 30 will be described in detail.

【0046】カーナビゲーションシステム2の電源オン
後に、表示装置14上に表示されるメニューから、ドラ
イバーがリモコン15a(操作スイッチ群8でも同様に
操作できる。以後の説明においても同じ)により、案内
経路を表示装置14に表示させるために経路情報表示処
理を選択した場合、あるいは、音声認識装置30を介し
て希望するメニューをマイク35を介して音声入力する
ことで、対話制御部32から制御回路10へ、リモコン
15aを介して選択されるのを同様の指示がなされた場
合、次のような処理を実施する。
After the power of the car navigation system 2 is turned on, the driver can change the guide route from the menu displayed on the display device 14 by using the remote controller 15a (the same operation can be performed with the operation switches 8; the same applies to the following description). When the route information display process is selected to be displayed on the display device 14, or when a desired menu is voice-inputted via the microphone 35 via the voice recognition device 30, the dialogue control unit 32 sends a message to the control circuit 10. When the same instruction is given via the remote controller 15a, the following processing is performed.

【0047】すなわち、ドライバーが表示装置14上の
地図に基づいて、音声あるいはリモコンなどの操作によ
って目的地を入力すると、GPS受信機22から得られ
る衛星のデータに基づき車両の現在地が求められ、目的
地と現在地との間に、ダイクストラ法によりコスト計算
して、現在地から目的地までの最も短距離の経路を誘導
経路として求める処理が行われる。そして、表示装置1
4上の道路地図に重ねて誘導経路を表示して、ドライバ
ーに適切なルートを案内する。このような誘導経路を求
める計算処理や案内処理は一般的に良く知られた処理で
あるので説明は省略する。
That is, when the driver inputs a destination by voice or an operation of a remote controller or the like based on a map on the display device 14, the current position of the vehicle is obtained based on satellite data obtained from the GPS receiver 22. A process is performed between the ground and the current location to calculate the cost by the Dijkstra method and determine the shortest route from the current location to the destination as a guidance route. And the display device 1
4. A guidance route is displayed on the road map above to guide the driver to an appropriate route. The calculation process and the guidance process for obtaining such a guide route are generally well-known processes, and a description thereof will be omitted.

【0048】次に、音声認識装置30における動作につ
いて、上述の経路案内のための目的地を音声入力する場
合を例にとって説明する。図4は、その場合の音声認識
部31及び対話制御部32における処理を示すフローチ
ャートである。なお、本フローチャートは、音声認識部
31及び対話制御部32が図2(A)に示す構成を備え
ていることを前提とした処理を示している。
Next, the operation of the voice recognition device 30 will be described by taking as an example a case where the destination for the route guidance is input by voice. FIG. 4 is a flowchart showing processing in the speech recognition unit 31 and the dialog control unit 32 in that case. Note that this flowchart shows processing on the assumption that the voice recognition unit 31 and the dialog control unit 32 have the configuration shown in FIG.

【0049】まず最初のステップS10においては音声
入力があるかどうかを判断する。上述したように、PT
Tスイッチ36が押されている間にマイク35を介して
入力された音声データのみが音声入力部34から音声認
識部31へ出力されるので、この音声入力部34からの
音声入力があるかどうかを判断する。音声入力があれば
(S10:YES)、対話制御部32内の記憶部32a
(図2(A)参照)を参照し(S20)、参照データが
あるかどうかを判断する(S30)。この参照データは
S80の処理において記憶されたものである。S80の
処理は後で説明する。記憶部32a内に参照データがあ
れば(S30:YES)、その参照データに基づいて次
の2つの処理を実行する(S40)。すなわち、省略
可能な上位階層リストの作成と照合開始頂点の決定で
ある。ここでは、図3に示した辞書データの具体例であ
る「あいちけんかりやししょうえいちょう(愛知県刈谷
市松栄町)」が参照データとして記憶されていた場合に
ついて説明する。この参照データについては、上述した
受理頂点B,C(図3参照)を考慮すると、「あいちけ
ん(愛知県)」という上位階層と、「あいちけんかりや
し(愛知県刈谷市)」という上位階層の2つが考えられ
る。したがって、このS40では、上記の省略可能な
上位階層リストとしては、「あいちけん」及び「あいち
けんかりやし」を作成することとなる。そして、の照
合開始頂点の決定は次のように行なう。つまり、図3に
示す辞書データであれば、上述したように、図3中の矢
印Aで示す頂点が「根」となり、そこから先行順走査
(preorder traversal)にしたがって各辺に割り付けら
れ音節を辿ることで単語が完成する。したがって、この
状態では照合開始頂点は矢印Aで示す頂点だけである
が、上記によって2つの省略可能な上位階層リストが
作成されたので、これに応じた照合開始頂点を追加決定
する。つまり、上位階層リスト「あいちけん」の受理頂
点である矢印Bで示す受理頂点と、上位階層リスト「あ
いちけんかりやし」の受理頂点である矢印Cで示す受理
頂点を新たな照合開始頂点として決定するのである。
In the first step S10, it is determined whether or not there is a voice input. As mentioned above, PT
Since only the voice data input through the microphone 35 while the T switch 36 is pressed is output from the voice input unit 34 to the voice recognition unit 31, it is determined whether there is a voice input from the voice input unit 34. Judge. If there is a voice input (S10: YES), the storage unit 32a in the dialog control unit 32
With reference to FIG. 2A (S20), it is determined whether there is reference data (S30). This reference data has been stored in the process of S80. The processing of S80 will be described later. If there is reference data in the storage unit 32a (S30: YES), the following two processes are executed based on the reference data (S40). That is, creation of an upper layer list that can be omitted and determination of a vertex to start collation. Here, a case will be described in which “Aichikenkariya Shishouichi Ichigo (Matsuei-cho, Kariya-shi, Aichi)” which is a specific example of the dictionary data shown in FIG. 3 is stored as reference data. Regarding this reference data, considering the above-mentioned reception vertices B and C (see FIG. 3), the upper hierarchy “Aichiken (Aichi Prefecture)” and the upper hierarchy “Aichiken Kariyashi (Kariya City, Aichi Prefecture)” There are two possibilities. Therefore, in this S40, "Aichiken" and "Aichiken Kariyashi" are created as the above-mentioned optional upper hierarchy list. Then, the matching start vertex is determined as follows. That is, in the case of the dictionary data shown in FIG. 3, as described above, the vertex indicated by the arrow A in FIG. 3 becomes the “root”, and the syllables are allocated to each side according to preorder traversal from there. The word is completed by tracing. Therefore, in this state, the collation start vertex is only the vertex indicated by the arrow A, but two omissible upper-layer lists are created as described above, and the collation start vertex corresponding thereto is additionally determined. In other words, the reception vertex indicated by arrow B, which is the reception vertex of the upper hierarchy list “Aichiken”, and the reception vertex indicated by arrow C, which is the reception vertex of the upper hierarchy list “Aichiken Kariyashi”, are determined as new verification start vertices. You do it.

【0050】S40の処理後は、S50へ移行して音声
認識処理を実行する。なお、S30で否定判断、すなわ
ち参照データがない場合にはS40の処理を実行するこ
となくS50へ移行する。ここで、S50での音声認識
処理について説明する。基本的には、取得した音声デー
タに対して辞書部31b内に記憶されている辞書データ
を用いて照合を行なうのであるが、その際、S40で照
合開始頂点が追加決定されているので、その追加決定さ
れた照合開始頂点から始まる単語も一時的に辞書データ
中の単語であるとして照合を行なう。そして、その追加
決定された照合開始頂点から始まる単語との照合結果に
より上位比較対象パターンが定まった場合には、記憶部
32aに記憶されている上位階層リストの内の対応する
ものをその上位比較対象パターンに付加した上で、最終
的な認識結果としての上位比較対象パターンを決定す
る。これにより認識結果が決定される。例えば、図3中
の矢印Cで示す受理頂点が照合開始頂点となり、この照
合開始頂点から始まる単語である「しょうわちょう(昭
和町)」が上位比較対象パターンとして定まった場合に
は、対応する上位階層リストが「あいちけんかりやし」
であるため、最終的な認識結果としては「あいちけんか
りやししょうわちょう(愛知県刈谷市昭和町)」とな
る。
After the processing in S40, the flow shifts to S50, where the voice recognition processing is executed. If a negative determination is made in S30, that is, if there is no reference data, the process proceeds to S50 without executing the process of S40. Here, the speech recognition processing in S50 will be described. Basically, matching is performed on the acquired voice data using the dictionary data stored in the dictionary unit 31b. At this time, since the matching start vertex is additionally determined in S40, the matching is performed. Words starting from the additionally determined collation start vertex are also temporarily determined to be words in the dictionary data and collation is performed. If the upper comparison target pattern is determined based on the result of the comparison with the word that starts from the additionally determined collation start vertex, the corresponding one of the upper hierarchy list stored in the storage unit 32a is compared with the upper comparison pattern. After being added to the target pattern, a higher-level comparison target pattern as a final recognition result is determined. Thereby, the recognition result is determined. For example, when the accepted vertex indicated by arrow C in FIG. 3 is the matching start vertex, and the word “showacho (Showa-cho)” starting from the matching start vertex is determined as the upper comparison target pattern, The upper level list is "Aichi Ken Kariyashi"
Therefore, the final recognition result is "Aichi Kenkari Yasushi Shocho (Showa-cho, Kariya City, Aichi Prefecture)".

【0051】図4のフローチャートの説明に戻り、続く
S60では、S50での音声認識処理による認識結果
が、「はい」という音声入力であるかどうかを判断す
る。そして、「はい」という音声入力でなければ(S6
0:NO)、続くS70にて認識結果が所定カテゴリに
属するものであるかどうかを判断する。ここでは経路案
内のための目的地を設定する処理を前提としているの
で、この所定カテゴリとは地名に関するカテゴリであ
る。
Returning to the description of the flowchart of FIG. 4, in S60, it is determined whether or not the recognition result of the voice recognition processing in S50 is a voice input of "Yes". Then, if the voice input is not “yes” (S6
0: NO), and in S70, it is determined whether or not the recognition result belongs to a predetermined category. Here, since it is premised on the process of setting a destination for route guidance, the predetermined category is a category relating to a place name.

【0052】この所定カテゴリであれば(S70:YE
S)、S80へ移行して、その認識結果を参照データと
してとして記憶部32a(図2(A)参照)に記憶させ
る。そして、続くS90にて、音声応答処理を実行す
る。これは、音声合成部33及びスピーカ37を介して
認識結果を音声として出力する処理である。
In the case of this predetermined category (S70: YE
S), the process proceeds to S80, and the recognition result is stored as reference data in the storage unit 32a (see FIG. 2A). Then, in S90, a voice response process is executed. This is a process of outputting the recognition result as voice via the voice synthesis unit 33 and the speaker 37.

【0053】一方、所定カテゴリでなければ(S70:
NO)、S100へ移行してその他の処理を実行する。
S90あるいはS100の処理の後はS10へ戻って、
処理を繰り返す。また、S60で肯定判断、すなわち認
識結果が「はい」という音声入力であった場合には、S
110へ移行して認識結果を確定する。そして続くS1
20にて、所定の確定後処理を実行する。この場合の確
定後処理とは、認識結果としての「経路案内のための目
的地」に関するデータを、制御回路10へ(図1参照)
へ出力する処理などとである。
On the other hand, if the category is not the predetermined category (S70:
NO), and the process proceeds to S100 to execute other processing.
After the processing of S90 or S100, return to S10,
Repeat the process. If a positive determination is made in S60, that is, if the recognition result is a voice input of “Yes”, the process proceeds to S60.
The process proceeds to step 110 to determine the recognition result. And the following S1
At 20, a predetermined post-determination process is executed. The post-confirmation processing in this case means that data relating to “destination for route guidance” as a recognition result is sent to the control circuit 10 (see FIG. 1).
To output to

【0054】このような確定後処理が終了した後は、S
130へ移行して、S80の処理で記憶部32aに記憶
されていた参照データを削除する。その後、S10へ戻
る。以上が、経路案内のための目的地を音声入力する場
合を例にとった場合の動作説明であるが、本発明の音声
認識に係る特徴及び効果をより明確に理解するために、
S50の処理説明でも触れたが、目的地として「愛知県
刈谷市昭和(しょうわ)町」を指定するという具体例で
説明を続ける。
After such post-determination processing is completed, S
The process proceeds to S130, where the reference data stored in the storage unit 32a in the process of S80 is deleted. Then, the process returns to S10. The above is the description of the operation in the case of voice input of the destination for route guidance as an example, but in order to more clearly understand the features and effects related to voice recognition of the present invention,
As mentioned in the processing description of S50, the description will be continued with a specific example in which "Showa-cho, Kariya-shi, Aichi" is specified as the destination.

【0055】利用者がマイク35を介して「愛知県刈谷
市昭和町」と音声入力したとする。音声認識の精度が1
00%でない場合には誤認識してしまう可能性がある。
例えば「愛知県刈谷市松栄(しょうえい)町」と誤って
認識してしまった場合には、音声認識装置30はその音
声をスピーカ37を介して出力する。
It is assumed that the user has voice-inputted “Showa-cho, Kariya-shi, Aichi” through the microphone 35. Speech recognition accuracy is 1
If it is not 00%, it may be erroneously recognized.
For example, if “Shoei town, Kariya city, Aichi prefecture” is mistakenly recognized, the voice recognition device 30 outputs the voice via the speaker 37.

【0056】これにより利用者は誤って認識されている
ことが判るので、再度「愛知県刈谷市昭和町」であるこ
とを音声認識装置30側に音声入力しなくてはならな
い。但し、利用者が再度音声入力する際には「愛知県刈
谷市昭和町」と音声入力するのではなく、「昭和町」だ
けを音声入力するだけでよくなる。つまり、最初の音声
入力である「愛知県刈谷市昭和町」は、「愛知県」と
「刈谷市」と「昭和町」というそれぞれ地名としての異
なるレベルを示す複数の語を階層的につなぎ合わせたも
のであるため、その上位階層を構成する語又は語群であ
る「愛知県」あるいは「愛知県刈谷市」が認識処理時の
省略対象(図4のS40で説明した省略可能な上位階層
リストに該当する)として設定されることとなる。その
ため、2回目には「昭和町」とだけ音声入力するだけで
も、それが「愛知県刈谷市」を省略したものであると見
なして入力音声に対する比較を実行できる。もちろん、
愛知県だけを省略して再度「刈谷市昭和町」と音声入力
する状況にも対応できる。
As a result, the user knows that the user is erroneously recognized. Therefore, the user must again input "Showa-cho, Kariya-shi, Aichi" to the voice recognition device 30 side. However, when the user inputs voice again, instead of inputting voice as "Showa-cho, Kariya-shi, Aichi Prefecture", only voice input of "Showa-cho" is sufficient. In other words, the first voice input, "Showa-cho, Kariya-shi, Aichi" is a hierarchical connection of multiple words indicating different levels of place names, "Aichi-ken", "Kariya-shi", and "Showa-cho". Therefore, the words or words constituting the upper hierarchy, "Aichi Prefecture" or "Kariya City, Aichi Prefecture" are omitted in the recognition process (the upper hierarchy list that can be omitted described in S40 of FIG. 4). ). Therefore, even if the user only inputs a voice for "Showa-cho" for the second time, it is possible to perform comparison with the input voice on the assumption that the input is "Kariya-shi, Aichi". of course,
It is also possible to respond to the situation where only Aichi Prefecture is omitted and the voice is input again as "Showa-cho in Kariya city".

【0057】このように、音声認識装置30側に誤認識
された場合に、その誤認識された部分(上述の例では
「昭和町」という町名)だけを修正することは、日常生
活における会話などの習慣から考えると、ごく自然であ
る。音声認識装置30を利用する場合に限って特別な注
意を払うことを強制するのは使い勝手の点で好ましくな
い。したがって、本音声認識装置30のように、誤認識
の部分だけ修正するという日常会話の習慣においてごく
自然な振舞いに対応できることによって、上位階層を省
略した方が自然な場合であっても上位階層から音声入力
しなくてはならないという利用者の負担を軽減し、使い
勝手をより向上させることができるのである。
As described above, when the speech recognition device 30 misrecognizes the character, correcting only the misrecognized part (the town name "Showa-cho" in the above example) is performed in a conversation in daily life. It is very natural in light of his habits. Forcing the user to pay special attention only when using the voice recognition device 30 is not preferable in terms of usability. Therefore, since it is possible to cope with a very natural behavior in the daily conversation habit of correcting only the part of erroneous recognition as in the present speech recognition device 30, even if it is more natural to omit the upper layer, The user's burden of having to input voice can be reduced, and usability can be further improved.

【0058】なお、図4のフローチャートに示すよう
に、S120での確定後処理が終了した場合には、S1
30にて記憶部32aの参照データを削除している。つ
まり、この参照データは誤認識された場合を想定し、S
40での省略可能な上位階層リストの作成のために記憶
されたものであるため、S120での確定後処理が終了
してしまえば、もう不必要となり、逆に次回の音声認識
に対しては無関係なデータであるため、ここで削除して
おくのである。
As shown in the flowchart of FIG. 4, when the post-determination processing in S120 is completed, S1
At 30, the reference data in the storage unit 32a is deleted. That is, assuming that the reference data is erroneously recognized, S
Since it is stored for the creation of an optional upper layer list in 40, once the post-determination processing in S120 is completed, it is no longer necessary, and conversely, Since it is irrelevant data, it is deleted here.

【0059】ところで、図4のフローチャートに示す処
理内容は、図2(A)に示す構成を前提としたものであ
ったが、図2(B)に示す構成を前提とした場合につい
て説明しておく。この場合も基本的な処理は同じである
が、S40及びS50の処理内容が多少異なることとな
る。つまり、図2(A)に示す構成を前提とした場合に
は、S40にて省略可能な上位階層リストの作成と照合
開始頂点の決定をし、S50の音声認識処理において
は、S40で追加決定された照合開始頂点から始まる単
語も一時的に辞書データ中の単語であるとして照合を行
なうようにした。
By the way, the processing contents shown in the flowchart of FIG. 4 are based on the configuration shown in FIG. 2A, but the case where the configuration shown in FIG. deep. Also in this case, the basic processing is the same, but the processing contents of S40 and S50 are slightly different. In other words, on the premise of the configuration shown in FIG. 2A, an upper layer list that can be omitted and a vertex to start collation are determined in S40, and in the voice recognition process in S50, an additional determination is made in S40. Words starting from the matching start vertex are also temporarily regarded as words in the dictionary data, and the matching is performed.

【0060】それに対して、図2(B)に示す構成を前
提とした場合には、S40に相当する処理として次のよ
うな内容の処理を実行する。つまり、省略可能な上位階
層リストの作成は同じであるが、辞書制御部132d
が、その省略可能な上位階層リストに基づき、辞書部3
1bに記憶されている該当する比較対象パターン候補か
ら参その上位階層リストを構成する語を省略した第2の
比較対象パターン候補を新設することとなる。上述した
具体例で言えば、「しょうわちょう(昭和町)」や「か
りやししょうわちょう(刈谷市昭和町)」などがこれに
相当する。したがって、図4のS50に相当する処理と
しては、この辞書制御部132dによって第2の比較対
象パターン候補が新設された状態の辞書部31bに記憶
されている比較対象パターン候補を用いて照合部31a
による通常の照合が実施される。なお、この場合には、
図4のS130に相当する処理として、記憶部132a
の参照データを削除すると共に、辞書制御部132dに
よって辞書部31bに新設された第2の比較対象パター
ン候補が削除され、元の状態に復帰される。 [別実施形態]以上図1〜図4を参照して、一実施形態
を説明したが、別のいくつかの実施形態について説明す
る。
On the other hand, assuming the configuration shown in FIG. 2B, the following processing is executed as processing corresponding to S40. That is, although the creation of the upper-level list that can be omitted is the same, the dictionary control unit 132d
Is based on the optional upper hierarchy list,
A second comparison target pattern candidate is obtained by omitting the words constituting the upper layer list from the corresponding comparison target pattern candidate stored in 1b. Speaking of the specific examples described above, "showacho (Showa-cho)" and "Kariyashi Showacho (Showa-cho in Kariya city)" correspond to this. Therefore, as a process corresponding to S50 in FIG. 4, the dictionary control unit 132d uses the comparison target pattern candidate stored in the dictionary unit 31b in a state where the second comparison target pattern candidate is newly established.
Is performed. In this case,
The processing corresponding to S130 in FIG.
Is deleted, and the dictionary comparison unit 132d deletes the second comparison target pattern candidate newly installed in the dictionary unit 31b, and returns to the original state. [Another Embodiment] One embodiment has been described above with reference to FIGS. 1 to 4, but some other embodiments will be described.

【0061】(1)上記実施形態では、認識処理時の省
略対象として、認識結果を報知した後の所定期間内に前
回の認識結果と同じ所定のカテゴリに属する音声入力が
なされた場合の、その前回の認識結果の上位階層を構成
する語を想定した。しかし、これには限定されず、次の
ような実施形態も考えられる。つまり、制御回路10か
ら入力した外部状況(図2参照)に基づく場合である。
具体的には、カーナビゲーションシステム2システム中
のナビゲーション装置本体から入力した現在地情報等で
ある。つまり、カーナビゲーションシステム2を搭載し
た車両が例えば愛知県内を走行しており、同じ愛知県内
である「愛知県刈谷市昭和町」を目的地として設定する
場合には、「愛知県刈谷市昭和町」と音声入力するので
はなく、「愛知県」を省略して「刈谷市昭和町」と音声
入力する方がやはり自然である。つまり、あえて愛知県
から特定しないでも、その下位階層である市レベルから
の指定で十分であると利用者が考えている状況である。
(1) In the above embodiment, when a speech input belonging to the same predetermined category as the previous recognition result is made within a predetermined period after notifying the recognition result as an object to be omitted in the recognition processing, Words that constitute the upper layer of the previous recognition result were assumed. However, the present invention is not limited to this, and the following embodiments are also conceivable. That is, this is a case based on the external situation (see FIG. 2) input from the control circuit 10.
More specifically, the information is current position information or the like input from the navigation device body in the car navigation system 2. That is, when a vehicle equipped with the car navigation system 2 is traveling in, for example, Aichi Prefecture, and "Awa Prefecture Kariya City Showa Town" in the same Aichi Prefecture is set as the destination, "Showa Town Kariya City Aichi Prefecture" It is more natural to omit the word "Aichi" and input the word "Showa-cho Kariya" instead of inputting the voice. In other words, there is a situation in which the user thinks that designation from the city level, which is the lower hierarchy, is sufficient even if the user does not specify from Aichi Prefecture.

【0062】このような場合には、対話制御部32が制
御回路10から外部状況としての現在地を入力し、例え
ば「愛知県」という上位階層を認識処理時の省略対象と
して設定すればよい。このように、自分達が現在存在し
ている所定のエリア内については、そのエリアを特定す
る上位階層の地名をあえて特定せず、その下位の階層か
ら特定するという日常会話の習慣においてごく自然な振
舞いに対応できることによって、上位階層を省略した方
が自然な場合であっても上位階層から音声入力しなくて
はならないという利用者の負担を軽減し、使い勝手をよ
り向上させることができる。
In such a case, the dialog control unit 32 may input the current location as the external situation from the control circuit 10 and set, for example, the upper hierarchy "Aichi prefecture" as an omission target in the recognition processing. As described above, in a predetermined area in which the user is currently located, a place in the upper hierarchy for specifying the area is not dared to be specified, but is specified from the lower hierarchy. By being able to cope with the behavior, even if it is more natural to omit the upper layer, it is possible to reduce the user's burden of having to input voice from the upper layer, and to further improve the usability.

【0063】(2)また、上記実施形態では、「報知手
段」としてスピーカ37を用い、音声出力により認識結
果を報知するようにしたが、このように音声で出力され
れば、認識結果の確認のためにドライバーが視点を移動
する必要がないので、一層の安全運転に貢献できる。つ
まり、カーナビゲーションシステム2を車載機器用とし
て用いているので、このような音声出力には利点があ
る。もちろん、画面上に文字または記号を表示すること
により認識結果を報知してもよいし、音声を出力するこ
とにより報知すると共に画面上に文字または記号を表示
することにより報知するようにしてもよい。そして、画
面上に認識結果を表示させる場合には、カーナビゲーシ
ョンシステム2の地図情報を表示するための表示装置1
4(図1参照)に表示させるような構成を採用すること
もできる。
(2) In the above embodiment, the speaker 37 is used as the "notifying means", and the recognition result is notified by voice output. This eliminates the need for the driver to move his / her viewpoint, thereby contributing to safer driving. That is, since the car navigation system 2 is used for in-vehicle devices, there is an advantage in such audio output. Of course, the recognition result may be notified by displaying a character or a symbol on the screen, or may be notified by outputting a voice and may be notified by displaying the character or the symbol on the screen. . Then, when displaying the recognition result on the screen, the display device 1 for displaying the map information of the car navigation system 2
4 (see FIG. 1).

【0064】なお、上記図4のS40の処理において
は、認識結果が所定カテゴリに属するものであるかどう
かを判断するものとし、その所定カテゴリとは目的地の
設定を前提にするため地名に関するカテゴリであると説
明した。しかしながら、本発明の主旨はこのような地名
等に限定されるものではなく、抽象的に言えば、認識結
果を出力し、利用者の確認を得てから正式に確定する必
要があるような情報に関するカテゴリということであ
る。具体的に上述のカーナビゲーションシステム2で言
うならば、ナビゲート処理をする上で指定される必要の
ある所定のナビゲート処理関連情報の指示ということと
なる。この「所定のナビゲート処理関連情報」の代表的
なものが目的地であるが、それ以外にもルート探索に関
する条件選択など、ナビゲート処理をする上で指定の必
要のある指示が含まれる。
In the process of S40 in FIG. 4, it is determined whether or not the recognition result belongs to a predetermined category. The predetermined category is a category related to a place name on the assumption that a destination is set. Was explained. However, the gist of the present invention is not limited to such place names and the like, but in abstract terms, information that needs to be formally output after outputting a recognition result and obtaining confirmation from a user. Category. More specifically, in the case of the car navigation system 2 described above, this means an instruction of predetermined navigation processing related information that needs to be specified in performing the navigation processing. A representative one of the “predetermined navigation processing related information” is a destination, but other instructions that need to be designated in performing the navigation processing, such as selecting conditions for a route search, are also included.

【0065】以上、本発明はこのような実施例に何等限
定されるものではなく、本発明の主旨を逸脱しない範囲
において種々なる形態で実施し得る。例えば、上述した
実施形態では、音声認識装置30をカーナビゲーション
システム2に適用した例として説明したが、適用先とし
ては、上述したカーナビゲーションシステム2には限定
されない。例えば音声認識装置を空調システム用として
用いる場合には、設定温度の調整、空調モード(冷房・
暖房・ドライ)の選択、あるいは風向モードの選択を音
声入力によって行うようにすることが考えられる。例え
ば設定温度について言えば、「設定温度を25度にす
る」や「設定温度を5度下げる」というように、設定温
度に関する指示であるが、その指示内容について複数存
在する場合である。本発明を適用すれば、「設定温度を
25度にする」と入力したのに「設定温度を22度にす
る」と誤認識した場合には、再度の音声入力では「25
度にする」だけ入力すればよくなり、やはり利用者の使
い勝手が向上する。空調モードや風向モードなどについ
ても同様である。
As described above, the present invention is not limited to such an embodiment, and can be implemented in various forms without departing from the gist of the present invention. For example, in the above-described embodiment, the example in which the voice recognition device 30 is applied to the car navigation system 2 has been described, but the application destination is not limited to the above-described car navigation system 2. For example, when using a voice recognition device for an air conditioning system, adjustment of the set temperature, air conditioning mode (cooling /
Heating / drying) or the wind direction mode may be selected by voice input. For example, as for the set temperature, there are instructions related to the set temperature, such as "set the set temperature to 25 degrees" or "decrease the set temperature by 5 degrees", but there are a plurality of instructions. According to the present invention, if the user inputs "set the set temperature to 25 degrees" but mistakenly recognizes "set the set temperature to 22 degrees", the input of "25 degrees" will be "25."
It is only necessary to input "to the degree", and the usability of the user is also improved. The same applies to the air conditioning mode and the wind direction mode.

【0066】なお、上述のカーナビゲーションシステム
2や空調システムは、車載機器として用いられる場合だ
けではなく、例えば携帯型ナビゲーション装置や屋内用
空調装置などでもよい。但し、これまで説明したように
車載機器用として用いる場合には利用者がドライバーで
あることが考えられ、その場合には運転自体が最重要で
あり、それ以外の車載機器については、なるべく運転に
支障がないことが好ましい。したがって、車載機器とし
てのカーナビゲーションシステム2や空調システムを前
提とした音声認識装置の場合には、より一層の利点があ
る。もちろん、このような視点で考えるならば、ナビゲ
ーションシステムや空調システム以外の車載機器に対し
ても同様に利用することができる。例えば、カーオーデ
ィオ機器などは有効である。また、いわゆるパワーウイ
ンドウの開閉やミラー角度の調整などを音声によって指
示するような構成を考えれば、そのような状況でも有効
である。
The car navigation system 2 and the air conditioning system described above are not limited to the case where they are used as in-vehicle equipment, but may be, for example, a portable navigation device or an indoor air conditioner. However, as described above, when used for in-vehicle equipment, the user may be a driver. In that case, driving itself is the most important. For other in-vehicle equipment, drive as much as possible. Preferably, there is no hindrance. Therefore, in the case of a voice recognition device on the premise of the car navigation system 2 or the air conditioning system as on-vehicle equipment, there is a further advantage. Of course, from such a viewpoint, the present invention can be similarly applied to in-vehicle devices other than the navigation system and the air conditioning system. For example, a car audio device is effective. Also, considering a configuration in which opening and closing of the power window and adjustment of the mirror angle are instructed by voice, it is effective even in such a situation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施の形態としてのカーナビゲーシ
ョンシステムの概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a car navigation system as an embodiment of the present invention.

【図2】 音声認識装置における音声認識部と対話制御
部の構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration of a speech recognition unit and a dialogue control unit in the speech recognition device.

【図3】 音声認識部内の辞書部に記憶されている辞書
データを示す説明図である。
FIG. 3 is an explanatory diagram showing dictionary data stored in a dictionary unit in a voice recognition unit.

【図4】 音声認識装置における音声認識及び対話制御
に係る処理を示すフローチャートである。
FIG. 4 is a flowchart illustrating processing related to voice recognition and dialog control in the voice recognition device.

【符号の説明】[Explanation of symbols]

2…カーナビゲーションシステム 4…位置検出器 6…地図データ入力器 8…操作スイッチ
群 10…制御回路 12…外部メモリ 14…表示装置 15…リモコンセ
ンサ 15a…リモコン 16…地磁気セ
ンサ 18…ジャイロスコープ 20…距離センサ 22…GPS受信機 30…音声認識装
置 31…音声認識部 31a…照合部 31b…辞書部 32…対話制御
部 32a…記憶部 32b…入力部 32c…後処理部 33…音声合成
部 34…音声入力部 35…マイク 36…PTTスイッチ 37…スピーカ 132a…記憶部 132b…入力部 132c…後処理部 132d…辞書制
御部
2 ... Car navigation system 4 ... Position detector 6 ... Map data input device 8 ... Operation switch group 10 ... Control circuit 12 ... External memory 14 ... Display device 15 ... Remote control sensor 15a ... Remote control 16 ... Geomagnetic sensor 18 ... Gyroscope 20 ... Distance sensor 22 GPS receiver 30 Voice recognition device 31 Voice recognition unit 31a Matching unit 31b Dictionary unit 32 Dialogue control unit 32a Storage unit 32b Input unit 32c Post-processing unit 33 Voice synthesis unit 34 Voice input unit 35 Microphone 36 PTT switch 37 Speaker 132a Storage unit 132b Input unit 132c Post-processing unit 132d Dictionary control unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G09B 29/10 G09B 29/10 A ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 6 Identification code FI G09B 29/10 G09B 29/10 A

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 音声を入力するための音声入力手段と、 該音声入力手段を介して入力された音声を、予め辞書手
段に記憶されている複数の比較対象パターン候補と比較
して一致度合の高いものを認識結果とする認識手段と、 該認識手段による認識結果を報知する報知手段と、 該報知手段によって認識結果が報知された後に所定の確
定指示がなされた場合には、当該認識結果を確定したも
のとして所定の確定後処理を実行する確定後処理手段と
を備える音声認識装置であって、 前記辞書手段に記憶されている前記複数の比較対象パタ
ーン候補の内の少なくとも一つは、複数の語を階層的に
つなぎ合わせたものとして設定されており、 前記複数の語を階層的につなぎ合わせた比較対象パター
ン候補の上位階層を構成する語又は語群が、認識処理時
の省略対象として設定されている場合には、前記認識手
段が、その設定されている前記上位階層構成語又は語群
を省略したものも一時的に前記比較対象パターン候補と
見なした上で、前記入力音声に対する比較を実行するよ
う構成されていることを特徴とする音声認識装置。
1. A voice input unit for inputting voice, and a voice input via the voice input unit is compared with a plurality of comparison target pattern candidates stored in advance in a dictionary unit to determine a matching degree. A recognizing means for recognizing a higher result, a notifying means for notifying the recognition result by the recognizing means, and a predetermined confirmation instruction after the recognizing result is notified by the notifying means, the recognizing result is displayed. And a post-confirmation processing means for executing predetermined post-confirmation processing as being determined, wherein at least one of the plurality of comparison target pattern candidates stored in the dictionary means is a plurality of Are set as hierarchically connected words, and a word or a group of words constituting an upper layer of the comparison target pattern candidate obtained by hierarchically connecting the plurality of words is recognized. When set as an omission target, the recognizing means temporarily omit the set upper layer constituent word or word group as the comparison target pattern candidate, A speech recognition device configured to perform a comparison on the input speech.
【請求項2】 請求項1に記載の音声認識装置におい
て、 前記認識結果を報知した後の所定期間内に前回の認識結
果と同じ所定のカテゴリに属する音声入力がなされた場
合の、その前回の認識結果の上位階層を構成する語又は
語群が、前記認識処理時の省略対象として設定されてい
ることを特徴とする音声認識装置。
2. The speech recognition device according to claim 1, wherein a speech input belonging to the same predetermined category as a previous recognition result is made within a predetermined period after notifying the recognition result. A speech recognition device, wherein a word or a group of words constituting an upper hierarchy of a recognition result is set as an omission target in the recognition processing.
【請求項3】 請求項2に記載の音声認識装置におい
て、 前記認識手段が前回の認識結果からその上位階層を構成
する語を省略したものも一時的に前記比較対象パターン
候補と見なした上で今回の入力音声に対する比較を実行
することの許容される所定期間は、前記認識結果の報知
後に前記所定の確定指示がなされるまでであることを特
徴とする音声認識装置。
3. The speech recognition apparatus according to claim 2, wherein said recognition means temporarily omits a word constituting a higher hierarchical level from a previous recognition result and temporarily considers the word as a comparison target pattern candidate. The speech recognition device according to claim 1, wherein the predetermined period during which the comparison with the current input speech is permitted is performed until the predetermined confirmation instruction is issued after the notification of the recognition result.
【請求項4】 請求項1に記載の音声認識装置におい
て、 前記認識処理時の省略対象として設定されている上位階
層を構成する語又は語群は、本音声認識装置による音声
認識結果が利用されるシステム中の当該音声認識装置以
外の装置から入力したものであることを特徴とする音声
認識装置。
4. The speech recognition apparatus according to claim 1, wherein a word or a group of words constituting an upper layer set as an object to be omitted in the recognition processing uses a speech recognition result by the speech recognition apparatus. A voice recognition device which is input from a device other than the voice recognition device in the system.
【請求項5】 請求項1〜4のいずれかに記載の音声認
識装置において、 前記認識処理時の省略対象として設定されている上位階
層構成語又は語群を参照データとして一時的に記憶して
おく参照データ記憶手段を備えており、 前記認識手段が、認識処理実行の際、前記辞書手段に記
憶されている複数の比較対象パターン候補から前記参照
データ記憶手段に記憶された参照データの上位階層を構
成する語を省略したものも一時的に前記比較対象パター
ン候補と見なした上で、今回の入力音声に対する比較を
実行するよう構成されていることを特徴とする音声認識
装置。
5. The speech recognition device according to claim 1, wherein upper-level constituent words or word groups set as omission objects in the recognition processing are temporarily stored as reference data. Reference data storage means, wherein the recognition means performs a recognition process, from a plurality of comparison target pattern candidates stored in the dictionary means, a higher hierarchy of reference data stored in the reference data storage means. Is also regarded as a candidate for the comparison target pattern, and then a comparison with the current input speech is executed.
【請求項6】 請求項1〜4のいずれかに記載の音声認
識装置において、 前回の認識結果が複数の語を階層的につなぎ合わせたも
のである場合には、その認識結果を参照データとして一
時的に記憶しておく参照データ記憶手段と、 該参照データ記憶手段に記憶された参照データに基づ
き、前記辞書手段に記憶されている該当する比較対象パ
ターン候補から前記参照データの上位階層を構成する語
を省略した第2の比較対象パターン候補を新設する辞書
制御手段とを備えており、 前記辞書制御手段によって前記第2の比較対象パターン
候補が新設された状態の前記辞書手段に記憶されている
比較対象パターン候補を用いて、前記認識手段が今回の
入力音声に対する比較を実行するよう構成されているこ
とを特徴とする音声認識装置。
6. The speech recognition apparatus according to claim 1, wherein, if the previous recognition result is obtained by connecting a plurality of words hierarchically, the recognition result is used as reference data. A reference data storage means for temporarily storing, and a higher layer of the reference data is constructed from the corresponding comparison target pattern candidates stored in the dictionary means based on the reference data stored in the reference data storage means. Dictionary control means for newly establishing a second comparison target pattern candidate in which words to be omitted are provided. The dictionary control means stores the second comparison target pattern candidate in the newly established dictionary means. A speech recognition device, wherein the recognition unit is configured to perform a comparison with a current input speech using a comparison target pattern candidate.
【請求項7】 請求項1〜6のいずれかに記載の音声認
識装置において、 前記報知手段は、音声を出力することにより報知する手
段であり、前記認識結果の報知は、前記認識結果の内容
を音声として前記音声出力手段から出力することによっ
て行われることを特徴とする音声認識装置。
7. The voice recognition device according to claim 1, wherein the notification unit is a unit that outputs a voice to notify the user, and the notification of the recognition result is a content of the recognition result. Is output from the voice output unit as a voice.
【請求項8】 請求項1〜7のいずれかに記載の音声認
識装置と、ナビゲーション装置とを備え、 前記音声認識装置の前記音声入力手段は、少なくとも前
記ナビゲーション装置がナビゲート処理をする上で指定
される必要のある所定のナビゲート処理関連データの指
示を利用者が音声にて入力するために用いられるもので
あり、前記確定後処理手段は、前記認識手段による認識
結果を前記ナビゲーション装置に出力するよう構成され
ていることを特徴とするナビゲーションシステム。
8. A voice recognition device according to claim 1, further comprising: a navigation device, wherein the voice input unit of the voice recognition device performs at least navigation processing by the navigation device. The user uses a voice to input an instruction of predetermined navigation processing-related data that needs to be specified, and the post-confirmation processing means sends the recognition result by the recognition means to the navigation device. A navigation system configured to output.
【請求項9】 請求項4に記載の音声認識装置と、ナビ
ゲーション装置とを備え、 前記音声認識装置の前記音声入力手段は、少なくとも前
記ナビゲーション装置がナビゲート処理をする上で指定
される必要のある所定の地名関連データの指示を利用者
が音声にて入力するために用いられるものであり、前記
確定後処理手段は、前記認識手段による認識結果を前記
ナビゲーション装置に出力するよう構成されているナビ
ゲーションシステムであって、 前記ナビゲーション装置は、 現在地を検出する現在地検出手段と、 該現在地検出手段によって検出した現在地が、複数の語
を階層的につなぎ合わせた前記比較対象パターン候補と
して表せる場合には、その上位階層を構成する語又は語
群を、前記認識処理時の省略対象として前記音声認識装
置に出力する省略対象データ出力手段と、 を備えることを特徴とするナビゲーションシステム。
9. A voice recognition device according to claim 4, further comprising a navigation device, wherein the voice input means of the voice recognition device needs to be specified at least when the navigation device performs a navigation process. It is used for a user to input an instruction of certain place name related data by voice, and the post-confirmation processing means is configured to output a recognition result by the recognition means to the navigation device. A navigation system, wherein the navigation device includes: a current position detection unit that detects a current position; and a current position detected by the current position detection unit, when the current position detected by the current position detection unit can be represented as the comparison target pattern candidate in which a plurality of words are hierarchically connected. The speech recognition apparatus as a word or a group of words constituting an upper layer thereof, Navigation system characterized in that it comprises, and optional target data output means for outputting.
JP19281697A 1997-07-17 1997-07-17 Voice recognition device and navigation system Expired - Fee Related JP3358498B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19281697A JP3358498B2 (en) 1997-07-17 1997-07-17 Voice recognition device and navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19281697A JP3358498B2 (en) 1997-07-17 1997-07-17 Voice recognition device and navigation system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002134248A Division JP3654262B2 (en) 2002-05-09 2002-05-09 Voice recognition device and navigation system

Publications (2)

Publication Number Publication Date
JPH1138994A true JPH1138994A (en) 1999-02-12
JP3358498B2 JP3358498B2 (en) 2002-12-16

Family

ID=16297471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19281697A Expired - Fee Related JP3358498B2 (en) 1997-07-17 1997-07-17 Voice recognition device and navigation system

Country Status (1)

Country Link
JP (1) JP3358498B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073074A (en) * 2000-08-31 2002-03-12 Pioneer Electronic Corp Method and device for recognizing numerical string in voice
JP2002287792A (en) * 2001-03-27 2002-10-04 Denso Corp Voice recognition device
JP2006330577A (en) * 2005-05-30 2006-12-07 Alpine Electronics Inc Device and method for speech recognition
JP2008268571A (en) * 2007-04-20 2008-11-06 Xanavi Informatics Corp Speech recognition device and speech recognition method therefor

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62266599A (en) * 1986-05-14 1987-11-19 三菱電機株式会社 Voice recognition equipment
JPS63800B2 (en) * 1982-09-30 1988-01-08 Sharp Kk
JPH0666591A (en) * 1992-08-20 1994-03-08 Ricoh Co Ltd On-vehicle navigating apparatus
JPH0721200A (en) * 1993-06-18 1995-01-24 Sony Corp Data base retrieval device
JPH07230293A (en) * 1994-02-17 1995-08-29 Sony Corp Voice recognition device
JPH07311591A (en) * 1994-05-18 1995-11-28 Sony Corp Voice recognition device and navigation system
JPH08202388A (en) * 1995-01-24 1996-08-09 Omron Corp Voice recognition device and voice recognition method
JPH08202386A (en) * 1995-01-23 1996-08-09 Sony Corp Speech recognizing method, speech recognizing device and navigation device
JPH08313292A (en) * 1995-05-16 1996-11-29 Aqueous Res:Kk On-vehicle navigation apparatus
JPH08320697A (en) * 1995-05-23 1996-12-03 Hitachi Ltd Speech recognition device
JPH08328584A (en) * 1995-05-29 1996-12-13 Sony Corp Speach recognition device, method therefor and navigation device
WO1997010583A1 (en) * 1995-09-11 1997-03-20 Daimler-Benz Aerospace Aktiengesellschaft Process for automatic control of one or more devices by voice commands or by real-time voice dialog and apparatus for carrying out this process
JPH09114487A (en) * 1995-10-16 1997-05-02 Sony Corp Device and method for speech recognition, device and method for navigation, and automobile
JPH1062198A (en) * 1996-08-19 1998-03-06 Sony Corp Navigation apparatus
JPH10253378A (en) * 1997-03-13 1998-09-25 Sony Corp Voice recognition method and apparatus for implementing the same
JPH1124693A (en) * 1997-06-27 1999-01-29 Nec Corp Speech recognition device

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63800B2 (en) * 1982-09-30 1988-01-08 Sharp Kk
JPS62266599A (en) * 1986-05-14 1987-11-19 三菱電機株式会社 Voice recognition equipment
JPH0666591A (en) * 1992-08-20 1994-03-08 Ricoh Co Ltd On-vehicle navigating apparatus
JPH0721200A (en) * 1993-06-18 1995-01-24 Sony Corp Data base retrieval device
JPH07230293A (en) * 1994-02-17 1995-08-29 Sony Corp Voice recognition device
JPH07311591A (en) * 1994-05-18 1995-11-28 Sony Corp Voice recognition device and navigation system
JPH08202386A (en) * 1995-01-23 1996-08-09 Sony Corp Speech recognizing method, speech recognizing device and navigation device
JPH08202388A (en) * 1995-01-24 1996-08-09 Omron Corp Voice recognition device and voice recognition method
JPH08313292A (en) * 1995-05-16 1996-11-29 Aqueous Res:Kk On-vehicle navigation apparatus
JPH08320697A (en) * 1995-05-23 1996-12-03 Hitachi Ltd Speech recognition device
JPH08328584A (en) * 1995-05-29 1996-12-13 Sony Corp Speach recognition device, method therefor and navigation device
WO1997010583A1 (en) * 1995-09-11 1997-03-20 Daimler-Benz Aerospace Aktiengesellschaft Process for automatic control of one or more devices by voice commands or by real-time voice dialog and apparatus for carrying out this process
JPH09114487A (en) * 1995-10-16 1997-05-02 Sony Corp Device and method for speech recognition, device and method for navigation, and automobile
JP2947143B2 (en) * 1995-10-16 1999-09-13 ソニー株式会社 Voice recognition device and navigation device
JPH1062198A (en) * 1996-08-19 1998-03-06 Sony Corp Navigation apparatus
JPH10253378A (en) * 1997-03-13 1998-09-25 Sony Corp Voice recognition method and apparatus for implementing the same
JPH1124693A (en) * 1997-06-27 1999-01-29 Nec Corp Speech recognition device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073074A (en) * 2000-08-31 2002-03-12 Pioneer Electronic Corp Method and device for recognizing numerical string in voice
JP4486235B2 (en) * 2000-08-31 2010-06-23 パイオニア株式会社 Voice recognition device
JP2002287792A (en) * 2001-03-27 2002-10-04 Denso Corp Voice recognition device
JP4604377B2 (en) * 2001-03-27 2011-01-05 株式会社デンソー Voice recognition device
JP2006330577A (en) * 2005-05-30 2006-12-07 Alpine Electronics Inc Device and method for speech recognition
JP2008268571A (en) * 2007-04-20 2008-11-06 Xanavi Informatics Corp Speech recognition device and speech recognition method therefor

Also Published As

Publication number Publication date
JP3358498B2 (en) 2002-12-16

Similar Documents

Publication Publication Date Title
JP4736982B2 (en) Operation control device, program
JP2004037998A (en) Vocal controller
JP3580643B2 (en) Voice recognition method and voice recognition device
JP4930486B2 (en) Voice recognition system and navigation device
JP4910563B2 (en) Voice recognition device
JP3358498B2 (en) Voice recognition device and navigation system
JP4604377B2 (en) Voice recognition device
JP3474089B2 (en) Navigation device
JP3890774B2 (en) Navigation system
JP3654262B2 (en) Voice recognition device and navigation system
JP2000338993A (en) Voice recognition device and navigation system using this device
JP4320880B2 (en) Voice recognition device and in-vehicle navigation system
JP3849283B2 (en) Voice recognition device
JP4201411B2 (en) Voice recognition device and navigation system
JP2001027540A (en) Navigation method to use function of voice recognition
JP4113698B2 (en) Input device, program
JP2947143B2 (en) Voice recognition device and navigation device
JP2007057805A (en) Information processing apparatus for vehicle
JPH1138995A (en) Speech recognition device and navigation system
JP3911835B2 (en) Voice recognition device and navigation system
JPH09114491A (en) Device and method for speech recognition, device and method for navigation, and automobile
JP2001075589A (en) Method and device for voice recognition
JPH11231889A (en) Speech recognition device
JP4458071B2 (en) Input device and program
JP2005114964A (en) Method and processor for speech recognition

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081011

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091011

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101011

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101011

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111011

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121011

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121011

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131011

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees