JPH11337366A - System and method for navigation as well as recording medium with recorded software for navigation - Google Patents
System and method for navigation as well as recording medium with recorded software for navigationInfo
- Publication number
- JPH11337366A JPH11337366A JP10148695A JP14869598A JPH11337366A JP H11337366 A JPH11337366 A JP H11337366A JP 10148695 A JP10148695 A JP 10148695A JP 14869598 A JP14869598 A JP 14869598A JP H11337366 A JPH11337366 A JP H11337366A
- Authority
- JP
- Japan
- Prior art keywords
- word
- message
- navigation
- recognized
- uttered
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、音声認識を使っ
たナビゲーションにかかわるもので、より具体的には、
アンサーバックを条件に応じて変化させることで、操作
の効率を改善したものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to navigation using voice recognition, and more specifically,
The operation efficiency is improved by changing the answer back according to conditions.
【0002】[0002]
【従来の技術】近年、自動車に代表される移動体の道案
内を自動的に行う電子機器として、ナビゲーションシス
テムが知られている。ナビゲーションシステムは、人工
衛星からの電波やジャイロなどを使って、搭載している
自動車(自車)の現在位置(自車位置)を計算し、液晶
表示パネルなどの表示画面で、自車位置を地図上でコン
ピュータグラフィックス表示しながら、次にどこをどち
らへ曲がればよいといった道案内をするものである。2. Description of the Related Art In recent years, a navigation system has been known as an electronic apparatus for automatically guiding a moving body represented by an automobile. The navigation system calculates the current position (own vehicle position) of the installed vehicle (own vehicle) using radio waves from artificial satellites and gyros, and calculates the current vehicle position on a display screen such as a liquid crystal display panel. While displaying computer graphics on a map, it guides the user where to turn next.
【0003】また、このようなナビゲーションシステム
に音声認識の技術を適用し、あらかじめ決められたいろ
いろな語句を発話(発声)することで、ナビゲーション
システムを操作するようにした例も知られている。この
ような音声認識では、関連する技術もいろいろ提案され
ているが、典型的には、認識しようとする語句ごとの特
徴を表す特徴パラメータや波形などのデータ、すなわち
認識用辞書をあらかじめ用意しておく。そして、マイク
ロホンから入力される音声をデジタル信号に変換し、上
に述べた認識用辞書とパタンマッチングすることで、発
話された語句を認識する。There is also known an example in which a speech recognition technique is applied to such a navigation system, and the navigation system is operated by uttering (uttering) various predetermined phrases. Although various related technologies have been proposed for such speech recognition, typically, data such as feature parameters and waveforms representing features of each word to be recognized, that is, a dictionary for recognition is prepared in advance. deep. Then, the speech input from the microphone is converted into a digital signal, and the utterance is recognized by performing pattern matching with the above-described recognition dictionary.
【0004】そして、このような音声認識でナビゲーシ
ョンシステムを制御する場合、メニューの階層構造など
を辿りながら、ナビゲーションシステムからのアナウン
スなどに従って順次、段階を踏んで決められた語句を発
話することで、必要とする機能に到達しなければならな
い。When the navigation system is controlled by such voice recognition, words determined in a step-by-step manner are sequentially spoken according to announcements from the navigation system while tracing the hierarchical structure of menus and the like. You have to reach the functionality you need.
【0005】そして、このような操作の途中の段階で
は、次にどのような操作をすればよいかについてのアナ
ウンスや、何らかの処理を実行した結果についてのアナ
ウンスなどのメッセージが、合成音声や画面上の文字列
などの形で出力される。このように、ユーザが操作した
のに応じてナビゲーションシステムが出力するメッセー
ジや、そのようなメッセージを出力することをアンサー
バックと呼ぶ。[0005] In the middle of such an operation, a message such as an announcement as to what operation to perform next or an announcement as to the result of executing some processing is given on the synthesized voice or on the screen. Is output as a character string. In this manner, a message output by the navigation system in response to a user operation or outputting such a message is referred to as answerback.
【0006】従来では、このアンサーバックの内容につ
いては、認識される語句ごとに、アンサーバックをする
かしないかのどちらかが決められていて、また、個々の
語句ごとに、アンサーバックの内容や、どのような動作
をするかについても1種類に固定されていた。さらに、
発話された語句が認識できなかったときは、どのような
操作の途中かといった状況とは関係なく、「認識出来ま
せん」などの定型的なアンサーバックを出力していた。Conventionally, with regard to the contents of the answer back, it is determined whether or not the answer back is performed for each recognized phrase, and the contents of the answer back are determined for each individual phrase. Also, what kind of operation is fixed to one type. further,
When the uttered word could not be recognized, a standard answer back such as "cannot be recognized" was output, regardless of what kind of operation was in progress.
【0007】[0007]
【発明が解決しようとする課題】しかし、目的とする処
理をさせるために語句の発話などの操作を順次進めてい
くようなシステムでは、上に述べたように、発話された
語句に応じて状況を問わずに同じアンサーバックが出力
されると、ユーザが慣れるほどシステムからの対応がく
どいことになり、ユーザインターフェースの快適さを損
なうという問題があった。また、そのような同じアンサ
ーバックを繰り返すと、アンサーバックをユーザが理解
して受け入れる時間や、他の情報を表示する為の画面ス
ペースなどを無駄遣いすることになり、操作の効率が悪
くなるという問題もあった。However, in a system in which operations such as utterance of a word are sequentially performed in order to perform a target process, as described above, a situation is determined according to the uttered word. If the same answer back is output regardless of the system, the system is slow to respond as the user gets used to it, and there is a problem that the user interface becomes less comfortable. In addition, when the same answer back is repeated, a user wastes time to understand and accept the answer back and a screen space for displaying other information, thereby reducing operation efficiency. There was also.
【0008】つまり、ある語句を発話したのに対して、
ある動作が実行されることで起きる変化が、画面上では
っきりとわかるような場合にもアンサーバックが出てし
まうのはユーザにとって煩わしく、操作の快適さを損な
っていた。That is, while a certain phrase is uttered,
When the change caused by the execution of a certain operation is clearly visible on the screen, the answerback is annoying for the user, which impairs the operational comfort.
【0009】しかし、一方で、そのような語句につい
て、どのような状況でもアンサーバックを出さないよう
なシステムでは、逆に、次に何を発話すれば良いのか分
からないような場面に遭遇することで、効率的な操作が
難しくなる。[0009] On the other hand, however, in such a system that does not give answer back in any situation, on the other hand, the user may encounter a situation where he or she does not know what to say next. Therefore, efficient operation becomes difficult.
【0010】また、1つの語句に対して、どのような状
況であるかとは関係なく固定された動作をするシステム
では、動作ごとにそれぞれ互いに違った語句を割り当て
なければならない。このため、ユーザが覚えなければな
らない語句の数が増え、使い勝手が悪くなるだけでな
く、認識用辞書の容量が大きくなったり、認識精度が落
ちるといった問題もあった。[0010] In a system that performs a fixed operation for one phrase regardless of the situation, different phrases must be assigned to each operation. For this reason, the number of words that the user must remember is increased, and not only is the usability inferior, but also the problem is that the capacity of the recognition dictionary increases and the recognition accuracy decreases.
【0011】さらに、語句が認識されなかった場合のア
ンサーバックや動作が、状況にかかわらず固定されてい
ると、ユーザにはただ単に語句が認識されなかったとい
うことしかわからず、その状況では次にどのような操作
をすればよいのかに対するヒント等は与えられない。従
来のシステムにおけるこのような対応は不親切であり、
ユーザを困惑させる原因になり、もっと操作しやすいナ
ビゲーションシステムが潜在的に求められていた。Furthermore, if the answer back and operation when the phrase is not recognized are fixed regardless of the situation, the user can simply know that the phrase was not recognized, and in that situation, Is not given a hint as to what operation to perform. Such a response in conventional systems is unkind,
There was a potential need for a navigation system that would be confusing to the user and easier to operate.
【0012】この発明は、上に述べたような従来技術の
問題点を解決するために提案されたもので、その目的
は、音声認識を使ったナビゲーションにかかわる技術に
おいて、アンサーバックの有無を変化させることで、操
作の効率を改善することである。また、この発明の他の
目的は、同じ語句が発話されたときでも条件に応じて違
った処理をすることで操作を容易にすることである。ま
た、この発明の他の目的は、アンサーバックの内容を条
件に応じて変化させることで、操作を容易にすることで
ある。The present invention has been proposed in order to solve the above-mentioned problems of the prior art. It is an object of the present invention to change the presence / absence of answer back in a technology related to navigation using voice recognition. This is to improve the efficiency of the operation. Another object of the present invention is to facilitate operation by performing different processing according to conditions even when the same word is uttered. Another object of the present invention is to facilitate the operation by changing the contents of answerback according to conditions.
【0013】[0013]
【課題を解決するための手段】上に述べた目的を達成す
るため、請求項1の発明は、発話された語句を音声認識
する手段と、ナビゲーションにかかわる処理を、認識さ
れた語句に応じて行う手段と、おこなった処理に応じて
メッセージをアンサーバックする手段と、を備えたナビ
ゲーションシステムにおいて、あらかじめ決められた条
件に応じて、アンサーバックするかどうかを制御する制
御手段を備えたことを特徴とする。請求項8の発明は、
請求項1の発明を方法という見方からとらえたもので、
発話された語句を音声認識するステップと、ナビゲーシ
ョンにかかわる処理を、認識された語句に応じて行うス
テップと、おこなった処理に応じてメッセージをアンサ
ーバックするステップと、を含むナビゲーション方法に
おいて、あらかじめ決められた条件に応じて、アンサー
バックするかどうかを制御する制御のステップを含むこ
とを特徴とする。請求項14の発明は、請求項1,8の
発明を、コンピュータのソフトウェアを記録した記録媒
体という見方からとらえたもので、コンピュータを使っ
て移動体のナビゲーションをするためのナビゲーション
用ソフトウェアを記録した記録媒体において、そのソフ
トウェアは前記コンピュータに、発話された語句を音声
認識させ、ナビゲーションにかかわる処理を、認識され
た語句に応じて行わせ、おこなった処理に応じてメッセ
ージをアンサーバックさせ、あらかじめ決められた条件
に応じて、アンサーバックするかどうかを制御させるこ
とを特徴とする。請求項1,8,14の発明では、同じ
語句に応じた処理をするときでも、どの画面のどの状況
で発話されたかや、その前にどの語句が発話されたかと
いった状況に応じてアンサーバックを出したり出さなか
ったりする。これによって、必要な情報をユーザに与え
ながら、画面や音声による余分なアンサーバックをなく
して操作のときの煩わしさを解消し、操作の効率を改善
することができる。In order to achieve the above-mentioned object, a first aspect of the present invention provides a means for recognizing spoken words by speech and a process related to navigation in accordance with the recognized words. A navigation system comprising means for performing the answering process and means for answering the message in accordance with the processing performed, wherein the navigation system includes control means for controlling whether to answer back in accordance with a predetermined condition. And The invention of claim 8 is
The invention of claim 1 is taken from the viewpoint of a method,
A navigation method including a step of voice-recognizing an uttered word, a step of performing navigation-related processing in accordance with the recognized word, and a step of answerbacking a message in accordance with the performed processing are determined in advance. The method includes a control step of controlling whether to perform answer-back according to the set condition. According to a fourteenth aspect of the present invention, the invention of the first and eighth aspects is viewed from the viewpoint of a recording medium on which computer software is recorded, and navigation software for navigating a moving object using a computer is recorded. On the recording medium, the software causes the computer to perform speech recognition of the spoken word, perform navigation-related processing according to the recognized word, and answer-back the message according to the performed processing. It is characterized in that whether to answer back or not is controlled according to the given condition. According to the invention of claims 1, 8, and 14, even when processing according to the same phrase, answerback is performed in accordance with the situation such as which screen was uttered in which situation and which phrase was uttered before that. They come and go. Thereby, while giving necessary information to the user, it is possible to eliminate an unnecessary answer back by a screen or a voice, to solve the troublesomeness of the operation, and to improve the efficiency of the operation.
【0014】請求項2の発明は、請求項1記載のナビゲ
ーションシステムにおいて、基本画面とメニュー画面と
を表示する手段と、それぞれの前記語句ごとに、前記処
理にかかわるメッセージと、フラグと、を格納する手段
と、を備え、前記制御手段は、語句に対応するフラグが
あらかじめ決められた状態の場合、その語句が前記基本
画面で発話されたときは前記メッセージをアンサーバッ
クし、その語句が前記メニュー画面で発話されたときは
前記メッセージをアンサーバックしないように制御する
ことを特徴とする。請求項9の発明は、請求項2の発明
を方法という見方からとらえたもので、請求項8記載の
ナビゲーション方法において、基本画面を表示するステ
ップと、メニュー画面を表示するステップと、それぞれ
の前記語句ごとに、前記処理にかかわるメッセージと、
フラグと、をあらかじめ格納しておき、前記制御のステ
ップは、語句に対応するフラグがあらかじめ決められた
状態の場合、その語句が前記基本画面で発話されたとき
は前記メッセージをアンサーバックし、その語句が前記
メニュー画面で発話されたときは前記メッセージをアン
サーバックしないように制御することを特徴とする。請
求項2,9の発明では、自車周辺の地図表示などの基本
画面から発話したときと、階層的メニューなどのメニュ
ー画面から発話したときとで、アンサーバックの有無を
変えるかどうかを、フラグによってきめ細かく制御でき
るので、処理の内容に応じて優れた操作効率を実現でき
る。According to a second aspect of the present invention, in the navigation system according to the first aspect, means for displaying a basic screen and a menu screen, and for each of the words, a message and a flag relating to the processing are stored. The control means, when the flag corresponding to the word is in a predetermined state, when the word is uttered on the basic screen, answers the message, and the word is displayed in the menu. When the message is uttered on the screen, the message is controlled not to answer back. According to a ninth aspect of the present invention, the invention of the second aspect is viewed from the viewpoint of a method. In the navigation method according to the eighth aspect, a step of displaying a basic screen, a step of displaying a menu screen, and For each phrase, a message involved in the processing,
And the flag is stored in advance, and the control step includes, when the flag corresponding to the word is in a predetermined state, answering the message when the word is uttered on the basic screen, When a word is uttered on the menu screen, the message is controlled not to answer back. According to the second and ninth aspects of the present invention, it is determined whether the presence or absence of answer back is changed between when speaking from a basic screen such as a map display around the own vehicle and when speaking from a menu screen such as a hierarchical menu. Control can be performed finely, so that excellent operation efficiency can be realized according to the content of the processing.
【0015】請求項3のナビゲーションシステムは、発
話された語句を音声認識する手段と、ナビゲーションに
かかわる処理を、認識された語句に応じて行う手段と、
同じ語句が認識された場合でも、あらかじめ決められた
条件に応じて違った処理を行うように制御する制御手段
を備えたことを特徴とする。請求項10のナビゲーショ
ン方法は、請求項3の発明を方法という見方からとらえ
たもので、発話された語句を音声認識するステップと、
ナビゲーションにかかわる処理を、認識された語句に応
じて行うステップと、同じ語句が認識された場合でも、
あらかじめ決められた条件に応じて違った処理を行うよ
うに制御するステップと、を含むことを特徴とする。請
求項15の発明は、請求項3,10の発明を、コンピュ
ータのソフトウェアを記録した記録媒体という見方から
とらえたもので、コンピュータを使って移動体のナビゲ
ーションをするためのナビゲーション用ソフトウェアを
記録した記録媒体において、そのソフトウェアは前記コ
ンピュータに、発話された語句を音声認識させ、ナビゲ
ーションにかかわる処理を、認識された語句に応じて行
わせ、同じ語句が認識された場合でも、あらかじめ決め
られた条件に応じて違った処理を行わせることを特徴と
する。請求項3,10,15の発明では、同じ語句が認
識された場合でも、どの画面のどの状況で発話されたか
や、その前にどの語句が発話されたかといった状況に応
じて、違った処理を行う。このため、ユーザが「この状
況では、この言葉」と言うように状況毎に違った語句を
覚える必要が少なくなり、より直感的に操作できるの
で、操作が容易になる。また、同じ語句を違った処理に
使い回せるので、メニュー構成を作る上でも汎用性や柔
軟性が向上する。According to a third aspect of the present invention, there is provided a navigation system, comprising: means for recognizing a spoken word; and means for performing navigation-related processing in accordance with the recognized word.
Even when the same phrase is recognized, a control means is provided for controlling so as to perform a different process according to a predetermined condition. According to a tenth aspect of the present invention, there is provided the navigation method, wherein the invention of the third aspect is viewed from the viewpoint of a method, and a step of voice-recognizing an uttered word and phrase,
Steps to perform navigation-related processing according to the recognized words, and even if the same words are recognized,
Controlling to perform a different process according to a predetermined condition. According to a fifteenth aspect of the present invention, the inventions of the third and tenth aspects are viewed from the viewpoint of a recording medium on which computer software is recorded, in which navigation software for navigating a moving object using a computer is recorded. In the recording medium, the software causes the computer to perform speech recognition of the spoken word and perform processing related to navigation in accordance with the recognized word. Even when the same word is recognized, a predetermined condition is used. And different processing is performed according to According to the third, tenth, and fifteenth aspects of the present invention, even when the same word is recognized, different processing is performed depending on the situation such as on which screen and in which situation the speech was uttered and before that. Do. For this reason, it is less necessary for the user to memorize different words for each situation such as "this situation is the word", and the operation can be performed more intuitively, which facilitates the operation. Further, since the same word can be reused for different processing, versatility and flexibility are improved in creating a menu structure.
【0016】請求項4の発明は、請求項3記載のナビゲ
ーションシステムにおいて、基本画面とメニュー画面と
を表示する手段を備え、前記制御手段は、ナビゲーショ
ンシステムの設定を変更するための語句が前記基本画面
で発話されたときは、設定の変更と、あらかじめ決めら
れたメッセージのアンサーバックを行い、ナビゲーショ
ンシステムの設定を変更するための語句が前記メニュー
画面で発話されたときは、その設定についてどのような
選択肢があるかを表す設定画面を表示させるように構成
されたことを特徴とする。請求項4の発明では、地図の
表示色など設定を変更するための同じ語句でも、基本画
面から直接発話したときは設定の変更とメッセージのア
ンサーバックを行い、一方、メニュー画面から発話した
ときは、その設定についてどのような選択肢があるかを
表す設定画面を表示する。すなわち、基本画面から直接
発話するというのは慣れた使い方であるから、設定画面
で他の選択肢を示すことをせずにそのまま設定を変更
し、語句を認識して変更したことを確認する意味でメッ
セージでユーザに知らせる。一方、メニュー画面を辿っ
て発話するというのは不慣れな使い方であるから、設定
画面でどのような選択肢があるかを示して選択させ、そ
の代わり、設定を変更したことやどの選択肢を選んだか
は設定画面から明らかなので、メッセージは出力しな
い。このように、ユーザがどのくらい慣れているかに応
じて違った処理をすることで、ナビゲーションシステム
の設定が変更しやすくなる。According to a fourth aspect of the present invention, in the navigation system according to the third aspect, there is provided means for displaying a basic screen and a menu screen. When uttered on the screen, change the settings and answer back a predetermined message, and when a phrase for changing the setting of the navigation system is uttered on the menu screen, The configuration is such that a setting screen indicating whether there is an appropriate option is displayed. According to the fourth aspect of the present invention, even if the same phrase for changing the setting such as the display color of the map is used, when the user directly speaks from the basic screen, the setting is changed and the message is backed up. And a setting screen showing what options are available for the setting. In other words, speaking directly from the basic screen is a familiar usage, so change the setting without showing other options on the setting screen, recognize the words and phrases, and confirm that the change was made. Notify the user with a message. On the other hand, uttering while following the menu screen is an unfamiliar usage, so on the setting screen you indicate what options are available and let you select it, and instead, you have changed the settings and selected the options. No message is output because it is clear from the setting screen. As described above, by performing different processing according to how much the user is used, the setting of the navigation system can be easily changed.
【0017】請求項5の発明は、発話された語句を音声
認識する手段と、ナビゲーションにかかわる処理を、認
識された語句に応じて行う手段と、おこなった処理に応
じてメッセージをアンサーバックする手段と、を備えた
ナビゲーションシステムにおいて、あらかじめ決められ
た条件に応じて、アンサーバックするメッセージの内容
を変える制御手段を備えたことを特徴とする。請求項1
1の発明は、請求項5の発明を方法という見方からとら
えたもので、において、発話された語句を音声認識する
ステップと、ナビゲーションにかかわる処理を、認識さ
れた語句に応じて行うステップと、おこなった処理に応
じてメッセージをアンサーバックするステップと、を含
むナビゲーション方法において、あらかじめ決められた
条件に応じて、アンサーバックするメッセージの内容を
変えるステップを含むことを特徴とする。請求項5,1
1の発明では、アンサーバックされるメッセージの内容
を、状況に応じた的確な内容に変えることで、ユーザは
次に発話すべき内容などを容易に理解でき、操作の効率
が向上する。According to a fifth aspect of the present invention, there is provided a means for recognizing a spoken word, a means for performing navigation-related processing in accordance with the recognized word, and a means for answerbacking a message in accordance with the performed processing. And a control means for changing the contents of a message to be answered according to a predetermined condition. Claim 1
According to a first aspect, the invention of claim 5 is viewed from the viewpoint of a method. In the first aspect, a step of voice-recognizing an uttered word and a step of performing a process related to navigation according to the recognized word are included; A navigation method that includes a step of answerbacking a message according to the performed processing, characterized in that the method includes a step of changing the content of the message to be answered back according to a predetermined condition. Claims 5 and 1
According to the first aspect of the invention, by changing the content of the answer-backed message to an accurate content according to the situation, the user can easily understand the content to be uttered next, and the operation efficiency is improved.
【0018】請求項6の発明は、請求項5記載のナビゲ
ーションシステムにおいて、前記語句が認識されたとき
に出力するためのメッセージを、それぞれの前記語句ご
とに格納する手段を備えたことを特徴とする。請求項1
2の発明は、請求項6の発明を方法という見方からとら
えたもので、請求項11記載のナビゲーション方法にお
いて、前記語句が認識されたときに出力するためのメッ
セージを、それぞれの前記語句ごとにあらかじめ格納し
ておくことを特徴とする。請求項6,12の発明では、
語句の発話によってある一連の処理が開始されるような
場合、次に何を発話すればよいのかを、その語句に応じ
たメッセージによってユーザに知らせることができるの
で、操作が容易になる。According to a sixth aspect of the present invention, there is provided the navigation system according to the fifth aspect, further comprising means for storing a message to be output when the phrase is recognized, for each of the phrases. I do. Claim 1
According to a second aspect, the invention of the sixth aspect is viewed from the viewpoint of a method. In the navigation method according to the eleventh aspect, a message to be output when the phrase is recognized is provided for each of the phrases. It is characterized in that it is stored in advance. In the invention of claims 6 and 12,
In a case where a series of processes is started by the utterance of a word, the user can be informed of what should be uttered next by a message corresponding to the word, thereby facilitating the operation.
【0019】請求項7の発明は、請求項5又は6記載の
ナビゲーションシステムにおいて、前記語句が認識され
たのに続いて発話された別の語句が認識できなかったと
きに出力するためのメッセージを、それぞれの前記語句
ごとに格納する手段を備えたことを特徴とする。請求項
13の発明は、請求項7の発明を方法という見方からと
らえたもので、請求項11又は12記載のナビゲーショ
ン方法において、前記語句が認識されたのに続いて発話
された別の語句が認識できなかったときに出力するため
のメッセージを、それぞれの前記語句ごとにあらかじめ
格納しておくことを特徴とする。請求項16の発明は、
請求項7,13の発明を、コンピュータのソフトウェア
を記録した記録媒体という見方からとらえたもので、コ
ンピュータを使って移動体のナビゲーションをするため
のナビゲーション用ソフトウェアを記録した記録媒体に
おいて、そのソフトウェアは前記コンピュータに、発話
された語句を音声認識させ、ナビゲーションにかかわる
処理を、認識された語句に応じて行わせ、おこなった処
理に応じてメッセージをアンサーバックさせ、前記語句
が認識されたときに出力するためのメッセージと、前記
語句が認識されたのに続いて発話された別の語句が認識
できなかったときに出力するためのメッセージと、をそ
れぞれの前記語句ごとにあらかじめ格納しておき、これ
らのメッセージを使って、あらかじめ決められた条件に
応じて、アンサーバックするメッセージの内容を変えさ
せることを特徴とする。請求項7,13,16の発明で
は、語句が認識できなかったときにアンサーバックされ
るメッセージの内容が、先行する語句に応じて変化す
る。すなわち、先行する語句によってある一連の処理が
開始されたが、ユーザが間違った語句を発話するなどし
て認識されなかったような場合でも、本来は何を発話す
ればよいのかを、先行する語句すなわち処理の内容に応
じたメッセージでユーザに知らせることができる。この
ため、注意事項のようなユーザへの指示を一度に羅列す
るように出力する必要がなくなり、使いやすいユーザイ
ンタフェースが実現される。According to a seventh aspect of the present invention, in the navigation system according to the fifth or sixth aspect, a message to be output when another word spoken subsequent to the recognition of the word cannot be recognized. And means for storing each of the words. According to a thirteenth aspect of the present invention, the invention of the seventh aspect is viewed from the viewpoint of a method. In the navigation method according to the eleventh or twelfth aspect, another word uttered after the word is recognized is recognized. A message to be output when recognition is not possible is stored in advance for each of the phrases. The invention of claim 16 is
The invention according to claims 7 and 13 is regarded as a recording medium on which computer software is recorded. In a recording medium on which navigation software for navigating a moving object using a computer is recorded, the software is The computer causes the spoken word to be speech-recognized, performs navigation-related processing in accordance with the recognized word, causes the message to be answered according to the performed processing, and outputs when the word is recognized. And a message to be output when another word spoken after the word was recognized could not be recognized, and stored in advance for each of the words. Using the message of Characterized in that it makes changing the contents of the message to click. According to the seventh, thirteenth, and sixteenth aspects of the present invention, the content of the message to be answered when the phrase cannot be recognized changes according to the preceding phrase. In other words, a series of processes is started by the preceding phrase, but even if the user does not recognize the phrase, for example, by uttering an incorrect phrase, it is necessary to determine what should be originally uttered. That is, the user can be notified by a message according to the content of the process. For this reason, it is not necessary to output instructions such as notes to the user so that they are listed at once, and an easy-to-use user interface is realized.
【0020】[0020]
【発明の実施の形態】次に、この発明のナビゲーション
システムの実施の形態(以下「実施形態」という)につ
いて、図面を参照して具体的に説明する。なお、以下の
説明で使うそれぞれの図について、それより前で説明し
た図と同じ部材や同じ種類の部材については同じ符号を
つけ、説明は省略する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, an embodiment of a navigation system according to the present invention (hereinafter referred to as "embodiment") will be specifically described with reference to the drawings. In each of the drawings used in the following description, the same members and members of the same type as those in the drawings described earlier are denoted by the same reference numerals, and description thereof will be omitted.
【0021】また、この実施形態は、いろいろなハード
ウェア装置と、ソフトウェアによって制御されるコンピ
ュータとを使って実現される。この場合、そのソフトウ
ェアは、この明細書の記載にしたがった命令を組み合わ
せることで作られ、上に述べた従来技術と共通の部分に
は従来技術で説明した手法も使われる。また、そのソフ
トウェアは、プログラムコードだけでなく、プログラム
コードの実行のときに使うために予め用意されたデータ
も含む。そして、そのソフトウェアは、ナビゲーション
システムに組み込まれたCPU、各種チップセットとい
った物理的な処理装置を活用することでこの発明の作用
効果を実現する。This embodiment is realized using various hardware devices and a computer controlled by software. In this case, the software is created by combining the instructions according to the description in this specification, and the common parts with the above-described prior art use the technique described in the prior art. Further, the software includes not only program codes but also data prepared in advance for use in executing the program codes. The software realizes the effects of the present invention by utilizing a physical processing device such as a CPU and various chipsets incorporated in the navigation system.
【0022】但し、この発明を実現する具体的なハード
ウェアやソフトウェアの構成はいろいろ変更することが
できる。例えば、回路の構成やCPUの処理能力に応じ
て、ある機能を、LSIなどの物理的な電子回路で実現
する場合も、ソフトウェアによって実現する場合も考え
られる。また、ソフトウェアを使う部分についても、ソ
フトウェアの形式には、コンパイラ、アセンブラ、マイ
クロプログラムなどいろいろ考えられる。また、この発
明を実現するソフトウェアを記録した記録媒体は、それ
単独でもこの発明の一態様である。However, the specific hardware and software configuration for realizing the present invention can be variously changed. For example, depending on the circuit configuration and the processing capability of the CPU, a certain function may be realized by a physical electronic circuit such as an LSI, or may be realized by software. Regarding the part that uses software, various forms of software, such as a compiler, an assembler, and a microprogram, can be considered. A recording medium on which software for realizing the present invention is recorded is also an aspect of the present invention by itself.
【0023】以上のように、コンピュータを使ってこの
発明を実現する態様はいろいろ考えられるので、以下で
は、この発明や実施形態に含まれる個々の機能を実現す
る仮想的回路ブロックを使って、この発明と実施形態と
を説明する。As described above, there are various possible modes for realizing the present invention using a computer. In the following, a virtual circuit block for realizing individual functions included in the present invention and the embodiments will be described. The invention and embodiments will be described.
【0024】〔1.第1実施形態の構成〕第1実施形態
は、メニュー階層を辿って順次発話する操作と、メニュ
ー階層とは関係なく、したい操作を表す語句を直接発話
する操作の両方が可能なナビゲーションシステムにかか
わるものである。[1. Configuration of First Embodiment] The first embodiment relates to a navigation system capable of performing both an operation of sequentially uttering following a menu hierarchy and an operation of directly speaking a word representing an operation desired regardless of the menu hierarchy. Things.
【0025】すなわち、この第1実施形態では、図3に
示すように、地図を表示している画面から、「メニュ
ー」→「設定」→「画面表示」→「進行方向」→「ヘデ
ィングアップ」というように順次、階層を追って操作し
たときと、図4に示すように、地図を表示している画面
から直接「ヘッディングアップ」と言ってショートカッ
トしたときとで、行われる処理と、メッセージがアンサ
ーバックされるかどうかが異なる例である。That is, in the first embodiment, as shown in FIG. 3, from the screen displaying the map, "menu" → "setting" → "screen display" → "progress direction" → "heading up" As shown in FIG. 4, when the operation is sequentially performed in accordance with the hierarchy and when the shortcut is directly performed from the screen displaying the map by saying “heading up”, the processing performed and the message are answered. This is an example in which whether or not they are backed up is different.
【0026】〔1−1.全体の構成〕まず、図1は、こ
の実施形態をどのようなハードウェアの上に構成するこ
とができるかの例を示す概念図である。この例は、音声
認識ユニットVと、ナビゲーションユニットNとを互い
に接続するもので、この実施形態の実現に使うハードウ
ェアの一部を示すものである。[1-1. FIG. 1 is a conceptual diagram showing an example of what kind of hardware this embodiment can be constructed on. In this example, a voice recognition unit V and a navigation unit N are connected to each other, and show a part of hardware used for realizing this embodiment.
【0027】このうち音声認識ユニットV内のROM
(V1)には認識用辞書V2が記憶されている。また、
ナビゲーションユニットN内にはCD−ROMドライブ
があり、このCD−ROMドライブに挿入されているC
D−ROM(N1)には、ナビゲーションシステムの機
能を実現するアプリケーションプログラムのほか、各種
データを含むデータベースN3が記録されている。ま
た、この実施形態のナビゲーションシステムの機能を実
現するためのアプリケーションプログラムN4は、CD
−ROM(N1)から読み出され、フラッシュメモリN
2に記録される。The ROM in the voice recognition unit V
(V1) stores a recognition dictionary V2. Also,
There is a CD-ROM drive in the navigation unit N, and the CD-ROM drive inserted in this CD-ROM drive
In the D-ROM (N1), a database N3 including various data is recorded in addition to the application programs for realizing the functions of the navigation system. The application program N4 for realizing the function of the navigation system of this embodiment is a CD.
-Read from the ROM (N1) and
2 is recorded.
【0028】また、図2は、図1に示したようなハード
ウェアを使って実現されるこの実施形態について、具体
的な構成を示す機能ブロック図である。すなわち、この
実施形態は、絶対位置・方位検出部1と、相対方位検出
部2と、車速検出部3と、メインCPU及びその周辺回
路4と、メモリ群Mと、出力部10と、入力部11と、
CD−ROM制御部12と、FM多重受信及び処理部1
3と、音声認識部14と、を備えている。FIG. 2 is a functional block diagram showing a specific configuration of this embodiment realized using hardware as shown in FIG. That is, in this embodiment, an absolute position / azimuth detecting unit 1, a relative azimuth detecting unit 2, a vehicle speed detecting unit 3, a main CPU and its peripheral circuits 4, a memory group M, an output unit 10, an input unit 11 and
CD-ROM control unit 12, FM multiplex reception and processing unit 1
3 and a voice recognition unit 14.
【0029】このうち、絶対位置・方位検出部1は、G
PS衛星から送られてくるGPS電波を受信すること
で、自動車(自車)の現在位置について地表での絶対的
な位置座標や方位を計算する手段である。また、相対方
位検出部2は、ジャイロなどを使って自動車の相対的な
方位を検出する部分である。また、車速検出部3は、自
動車より得られる車速パルスを処理することで、車の速
度を計算する部分である。Of these, the absolute position / azimuth detecting unit 1
This is a means for calculating the absolute position coordinates and azimuth of the current position of the automobile (own vehicle) on the ground surface by receiving the GPS radio wave transmitted from the PS satellite. The relative azimuth detecting unit 2 is a part that detects the relative azimuth of the vehicle using a gyro or the like. The vehicle speed detection unit 3 is a part that calculates a vehicle speed by processing a vehicle speed pulse obtained from the vehicle.
【0030】また、CD−ROM制御部12は、ナビゲ
ーションシステム用のプログラムや道路地図データなど
各種の情報をCD−ROMから読み出す部分である。ま
た、FM多重受信及び処理部13は、複数のアンテナを
受信状態に応じて切り換えることで、ラジオのFM放送
を受信する部分である。また、音声認識部14は、認識
しようとする語句ごとの特徴を表す特徴パラメータや波
形のデータ、すなわち認識用辞書141(図1の認識用
辞書V2にあたる)を備えた音声認識ユニットであり、
マイクロホンから入力される音声をデジタル信号に変換
し、認識用辞書141とパタンマッチングすることで、
発話された語句を認識する手段である。The CD-ROM control section 12 is a section for reading various information such as a navigation system program and road map data from the CD-ROM. The FM multiplex reception and processing unit 13 is a part that receives a FM broadcast of a radio by switching a plurality of antennas according to a reception state. The speech recognition unit 14 is a speech recognition unit including a feature parameter or waveform data representing a feature of each phrase to be recognized, that is, a recognition dictionary 141 (corresponding to the recognition dictionary V2 in FIG. 1).
By converting the voice input from the microphone into a digital signal and performing pattern matching with the dictionary for recognition 141,
This is a means for recognizing the uttered phrase.
【0031】〔1−2.メインCPU及びその周辺回路
の役割〕また、メインCPU及びその周辺回路4は、ナ
ビゲーションシステム全体を制御する制御回路の役割を
果たす部分であり、上に述べたソフトウェアの作用によ
って、処理部41と、アンサーバック部42と、表示制
御部43と、制御部44と、の役割を果たす。[1-2. Role of Main CPU and its Peripheral Circuit] The main CPU and its peripheral circuit 4 are parts that play a role of a control circuit for controlling the entire navigation system. It plays the role of the answer back unit 42, the display control unit 43, and the control unit 44.
【0032】このうち、処理部41は、ナビゲーション
にかかわる処理を、音声認識部14によって認識された
語句に応じて行う手段である。また、アンサーバック部
42は、処理部41がおこなった処理に応じて、出力部
10に設けられた表示画面や音声合成回路などからメッ
セージをアンサーバックする手段である。The processing section 41 is a means for performing processing related to navigation in accordance with the words and phrases recognized by the voice recognition section 14. The answerback unit 42 is a means for answerbacking a message from a display screen or a voice synthesis circuit provided in the output unit 10 in accordance with the processing performed by the processing unit 41.
【0033】また、表示制御部43は、出力部10に設
けられた表示画面にどのような内容を表示するか制御す
る部分であり、そのよな表示画面に、自車周辺の地図を
表示している基本画面と、階層的なメニューのいろいろ
な段階を表示するメニュー画面とを表示する手段であ
る。The display control section 43 is a section for controlling what content is displayed on the display screen provided in the output section 10. The display control section 43 displays a map around the own vehicle on such a display screen. Means for displaying a basic screen and a menu screen for displaying various stages of a hierarchical menu.
【0034】また、制御部44は、次のような3つの役
割を持っている。このうち第1の役割は、あらかじめ決
められた条件に応じて、アンサーバックするかどうかを
制御することである。ここで、CD−ROM制御部12
によってアクセスされるデータベースN3には、それぞ
れの前記語句ごとに対応したレコードがあり、個々のレ
コードには、その語句に対応した処理で使うメッセージ
と、フラグと、が格納されている。The control unit 44 has the following three roles. The first role is to control whether or not to answer back according to a predetermined condition. Here, the CD-ROM control unit 12
Has a record corresponding to each of the phrases, and each record stores a message and a flag used in a process corresponding to the phrase.
【0035】そして、制御部44は、具体的には、上に
述べたフラグがあらかじめ決められた状態、すなわち値
をとっている場合、アンサーバック部42に対して、次
のような制御を行う。すなわち、制御部44は、そのフ
ラグに対応する語句が、表示制御部46によって表示さ
れる基本画面で発話されたときは上に述べたメッセージ
をアンサーバックさせ、その語句が、表示制御部46に
よって表示されるメニュー画面で発話されたときは前記
メッセージをアンサーバックさせないように制御を行
う。また、制御部44が持っている第2の役割は、同じ
語句が認識された場合でも、あらかじめ決められた条件
に応じて違った処理を行うように処理部41を制御する
ことである。Specifically, the control unit 44 performs the following control on the answer back unit 42 when the above-mentioned flag is in a predetermined state, that is, when the flag has a value. . That is, when the word corresponding to the flag is uttered on the basic screen displayed by the display control unit 46, the control unit 44 causes the message described above to answer-back, and the word is sent to the display control unit 46. When the user speaks on the displayed menu screen, control is performed so that the message is not answered. The second role of the control unit 44 is to control the processing unit 41 so as to perform different processing according to a predetermined condition even when the same phrase is recognized.
【0036】すなわち、制御部44は、これら第1と第
2の役割を合わせて、処理部41とアンサーバック部4
2とに対して、次のような制御を行うように構成されて
いる。つまり、制御部44は、ナビゲーションシステム
の設定を変更するための「ヘッディングアップ」のよう
な語句が前記基本画面で発話されたときは、設定の変更
と、あらかじめ決められたメッセージのアンサーバック
を行わせる。一方、制御部44は、ナビゲーションシス
テムの設定を変更するための語句が前記メニュー画面で
発話されたときは、その設定についてどのような選択肢
があるかを表す設定画面を表示させる。In other words, the control unit 44 combines the first and second roles with the processing unit 41 and the answerback unit 4.
2, the following control is performed. That is, when a phrase such as “heading up” for changing the setting of the navigation system is uttered on the basic screen, the control unit 44 changes the setting and performs answerback of a predetermined message. Let On the other hand, when a word for changing the setting of the navigation system is uttered on the menu screen, the control unit 44 displays a setting screen indicating what options are available for the setting.
【0037】また、制御部44の持つ第3の役割は、あ
らかじめ決められた条件に応じて、アンサーバックする
メッセージの内容を変えることである。すなわち、デー
タベースN3の語句ごとのレコードに格納されているメ
ッセージは、具体的には文字列からなる次の2種類のメ
ッセージである。1つは、その語句が認識されたときに
出力するためのメッセージであり、もう1つは、その語
句が認識されたのに続いて発話された別の語句が認識で
きなかったときに出力するための第2のメッセージであ
り、この第2のメッセージをNOTメッセージと呼ぶ。The third role of the control unit 44 is to change the contents of the message to be answered according to a predetermined condition. That is, the messages stored in the record for each phrase in the database N3 are, specifically, the following two types of messages composed of character strings. One is a message to be output when the word is recognized, and the other is to be output when another word spoken subsequent to the recognition of the word cannot be recognized. This message is referred to as a NOT message.
【0038】例えば、「ホテル」という語句に対応する
レコードには、「ホテルの名称を言ってください」とい
った第1のメッセージと、「正式名称で指示しています
か?」といったNOTメッセージを記録しておくことが
考えられる。For example, in a record corresponding to the phrase "hotel", a first message such as "please say the name of the hotel" and a NOT message such as "do you designate by the official name?" It is conceivable to keep it.
【0039】なお、処理部41は、上に述べたほかに、
計算された自車位置を利用して、自動車の現在位置をコ
ンピュータグラフィックスの地図上で表示したり、ユー
ザの指示に応じて道案内を行ったりといったナビゲーシ
ョンの各種処理を行うように構成されていて、また、I
/O制御回路やドライバなどを含む図示しないユーザイ
ンタフェースを使って、いろいろな情報の入出力を行う
ように構成されている。また、メインCPU及びその周
辺回路4は、このような各種処理を行う際、メモリ群M
と、出力部10と、入力部11とを利用する。It should be noted that, in addition to the above, the processing unit 41
Utilizing the calculated own-vehicle position, the present position of the car is displayed on a computer graphics map, and various navigation processes such as providing route guidance in accordance with a user instruction are performed. And I
It is configured to input and output various information using a user interface (not shown) including an / O control circuit and a driver. Further, the main CPU and its peripheral circuit 4 perform the above-described various processes when the memory group M
And an output unit 10 and an input unit 11.
【0040】〔1−3.その他の構成〕すなわち、メモ
リ群Mは、この実施形態のナビゲーションシステムが動
作するのに必要な各種のメモリ、すなわち、BIOSや
ブートアッププログラムなどを格納しているROM5、
ワークエリアなどに使うDRAM6、登録ファイル等の
情報を記録する不揮発性メモリとしてのSRAM7、ビ
デオ表示などに使うVRAM8を含んでいる。[1-3. Other Configurations] That is, the memory group M includes various memories necessary for the operation of the navigation system according to the present embodiment, that is, the ROM 5 storing a BIOS, a boot-up program, and the like.
It includes a DRAM 6 used for a work area, an SRAM 7 as a nonvolatile memory for recording information such as a registration file, and a VRAM 8 used for video display.
【0041】また、出力部10は、地図や操作メニュー
など各種の情報を液晶表示パネルや音声合成装置などを
使って出力するための部分であり、入力部11は、ユー
ザが命令や目的地などさまざまな情報を入力するための
部分である。The output unit 10 is a unit for outputting various information such as a map and an operation menu using a liquid crystal display panel, a voice synthesizer, or the like. It is a part for inputting various information.
【0042】〔2.第1実施形態の作用〕上に述べたよ
うに構成された第1実施形態は、次のように作用する。 〔2−1.認識用辞書の内容〕まず、認識用辞書141
にはメニューの各階層で使う語句のデータを全て含ませ
ておき、自車周辺の地図を表示しているような基本画面
においても、メニューの階層を辿って操作しているとき
も、常に全ての語句が認識可能な状態にしておく。[2. Operation of the First Embodiment] The first embodiment configured as described above operates as follows. [2-1. Contents of recognition dictionary] First, recognition dictionary 141
Contains all the data of the words and phrases used in each level of the menu, and always displays all the data on the basic screen such as displaying the map around the vehicle, even when operating through the menu level. Is recognizable.
【0043】これはつまり、画面にメニューが表示され
ていないときに、メニューのある部分で使う語句を発話
しても認識されるということであり、同じように、メニ
ューの階層のある部分が表示されているとき、もっとメ
インメニュー側で別の方向に分岐しなければ表示されな
いような、別の部分で使う語句を発話しても認識される
ということである。This means that when a menu is not displayed on the screen, a word used in a certain part of the menu is recognized even if it is spoken. Similarly, a certain part of the menu hierarchy is displayed. This means that even if you utter words used in other parts that are not displayed unless you branch in the other direction on the main menu side, it will be recognized.
【0044】〔2−2.語句の認識〕そして、ユーザか
らの発話があると、音声認識部14は認識用辞書141
を使って発話された語句を認識し、その語句の番号をメ
インCPU及びその周辺回路4に渡す。ここで、メイン
CPU及びその周辺回路4の動作は、ナビゲーションシ
ステムの機能を実現するアプリケーションプログラムに
よって実現される。[2-2. Recognition of Words] Then, when there is an utterance from the user, the voice recognition unit 14
And recognizes the uttered phrase, and passes the number of the phrase to the main CPU and its peripheral circuit 4. Here, the operations of the main CPU and its peripheral circuit 4 are realized by an application program for realizing the functions of the navigation system.
【0045】〔2−3.アプリケーションプログラムに
よる処理〕すなわち、これらアプリケーションプログラ
ムでは、語句番号として何番を受け取ったかに応じた処
理をあらかじめプログラミングされていて、その動きを
実行する。この場合、語句の番号ごとに、どのような動
作をプログラミングしておくかは、基本的には、番号と
1対1に対応させておく。[2-3. Processing by Application Program] That is, in these application programs, processing corresponding to the number received as a phrase number is programmed in advance, and the movement is executed. In this case, what kind of operation is programmed for each word number basically has a one-to-one correspondence with the number.
【0046】例えば、メニュー階層のある部分で「シス
テム」という語句を発話できるメニューがあり、その語
句を発話すると1つ下の階層のメニューが表示されると
する。このような場合、この「システム」という語句が
上に述べた部分のメニュー階層で発話されたときも、そ
れ以外の例えば自車周辺の地図を表示している状態で発
話されたときも、いずれも上に述べた同じ「1つ下の階
層のメニュー」が表示されるようにしておく。For example, it is assumed that there is a menu in which a word "system" can be uttered in a certain part of the menu hierarchy, and when the word is uttered, a menu of the next lower layer is displayed. In such a case, when the phrase "system" is uttered in the menu hierarchy of the above-described portion, or when the other is uttered while displaying a map around the own vehicle, for example, Also, the same “menu one level lower” described above is displayed.
【0047】〔2−4.発話による操作の例〕但し、メ
ニュー階層の最下層の語句は、具体的な操作を行うもの
であるから、地図上から直接言われたか、またはメニュ
ー上の他の言葉の次に言われたかによって動きを変える
様にプログラミングしておく。[2-4. Example of operation by utterance] However, since the words at the bottom of the menu hierarchy are for specific operations, it depends on whether they are said directly on the map or next to other words on the menu Program to change the movement.
【0048】例えば、図3(a)〜(f)は、メニュー
階層にしたがって、決められた語句を順次発話すること
で「ヘッディングアップ」という操作に辿り着く流れを
示す概念図であり、「進行方向」を発話することで表示
された設定画面(e)では、「ヘッディングアップ」の
他に「ノースアップ」という選択肢があることが表示さ
れている。For example, FIGS. 3A to 3F are conceptual diagrams showing a flow of arriving at an operation "heading up" by sequentially uttering predetermined words in accordance with a menu hierarchy. The setting screen (e) displayed by speaking the “direction” indicates that there is an option of “north up” in addition to “heading up”.
【0049】一方、図4(a),(b)は、自車周辺の
道路地図を表示している基本画面から、直接「ヘッディ
ングアップ」と発話するだけで、「ヘッディングアッ
プ」という操作を容易に行う例を示すもので、この例で
は「ヘッディングアップ」と発話した後の画面(b)で
は、上に述べた他の選択肢は表示されず、進行方向をヘ
ッディングアップにした旨のメッセージが表示されてい
る。On the other hand, FIGS. 4 (a) and 4 (b) show that the operation of "heading up" can be easily performed by simply speaking "heading up" directly from the basic screen displaying the road map around the own vehicle. In this example, on the screen (b) after "Heading Up" is spoken, the other options described above are not displayed, and a message indicating that the traveling direction is set to Heading Up is displayed. Have been.
【0050】なお、データベースN3には、アプリケー
ションプログラムが与えられた語句の番号に対応する処
理を実行するときに必要な情報、例えば画面上に出力す
るメッセージなどを語句の番号ごとに対応させて、上に
述べたように格納してあるので、アプリケーションプロ
グラムは、CD−ROM制御部12を使ってこのデータ
を適宜、読み込みながら語句に応じた処理を実行する。In the database N3, information required when the application program executes the process corresponding to the given phrase number, such as a message output on the screen, is associated with each phrase number. Since the data is stored as described above, the application program uses the CD-ROM control unit 12 to appropriately read the data and execute a process corresponding to the phrase.
【0051】ここで、図5は、認識用辞書141を使っ
て認識された語句の番号が、上に述べたアプリケーショ
ンプログラムによって処理される例を示す概念図であ
る。この例では、認識用辞書141を使って認識された
「ガメンヒョウジ」という語句は8番、「ヘッディング
アップ」という語句は19番という語句の番号でアプリ
ケーションプログラムに渡される。FIG. 5 is a conceptual diagram showing an example in which the number of a phrase recognized using the recognition dictionary 141 is processed by the above-described application program. In this example, the word “Gamen leopard” recognized using the recognition dictionary 141 is passed to the application program as the number 8 and the word “heading up” is passed to the application program as the number 19.
【0052】このように、認識された語句の語句コード
が音声認識部14からメインCPU及びその周辺回路4
に渡されると、メインCPU及びその周辺回路4の制御
部は、あらかじめ決められた条件にしたがって、アンサ
ーバックをするかどうか、また、どのような処理をする
か、について、アンサーバック部42や処理部41を制
御する。As described above, the phrase code of the recognized phrase is sent from the speech recognition unit 14 to the main CPU and its peripheral circuits 4.
The control unit of the main CPU and its peripheral circuit 4 determines whether or not to perform answerback according to predetermined conditions and what kind of processing is to be performed by the answerback unit 42 and the processing. The section 41 is controlled.
【0053】具体的には、19番の「ヘッディングアッ
プ」については、図5に示すように、基本画面で発話さ
れたときは、設定の変更と、あらかじめ決められたメッ
セージのアンサーバックが行われる。一方、同じ語句が
メニュー画面で発話されたときは、その設定についてど
のような選択肢があるかを表す設定画面を表示させる。More specifically, for the 19th "heading up", as shown in FIG. 5, when the user speaks on the basic screen, the setting is changed and a predetermined message answer back is performed. . On the other hand, when the same word is uttered on the menu screen, a setting screen indicating what options are available for the setting is displayed.
【0054】このように、同じ「ヘッディングアップ」
という語句を発話した場合でも、地図(基本画面)上か
ら直接発話されたかどうかに応じて違った画面が表示さ
れることになるが、このような場合に使う「進行方向を
ヘッディングアップにしました。」といったメッセージ
などの情報は、語句の番号ごとに対応させて、データベ
ースN3に格納されているのを読み出したものである。Thus, the same "heading up"
Even if you say the phrase, a different screen will be displayed depending on whether or not it was spoken directly from the map (basic screen). . "Is read out from the database N3 in association with each word number.
【0055】〔2−5.フラグによる制御〕また、デー
タベースN3では、上に述べたように、メニュー画面か
ら発話された場合と、基本画面から直接発話された場合
とでアンサーバックの有無を変えるものについては、語
句ごとのレコードのなかで、あらかじめ決められた特定
の値をフラグに設定しておく。そして、アプリケーショ
ンプログラムは、このフラグの値が上に述べた特定の値
になっている語句については、メニュー画面から発話さ
れたときはアンサーバックしないが、基本画面から直接
発生された場合はアンサーバックする、という具合にア
ンサーバックの有無を変化させる。[2-5. Control by Flag] In the database N3, as described above, records that change the presence / absence of answer back between the case where the utterance is made from the menu screen and the case where the utterance is made directly from the basic screen are stored in the record for each phrase. Among them, a predetermined specific value is set in the flag. Then, the application program does not answer back when the word of this flag has the specific value described above when uttered from the menu screen, but does not answer back when it is generated directly from the basic screen. The presence or absence of answer back is changed.
【0056】〔3.第1実施形態の効果〕以上のよう
に、第1実施形態では、同じ語句に応じた処理をすると
きでも、制御部44の働きによって、どの画面のどの状
況で発話されたかや、その前にどの語句が発話されたか
といった状況に応じて、アンサーバック部42がアンサ
ーバックを出したり出さなかったりする。これによっ
て、必要な情報をユーザに与えながら、画面や音声によ
る余分なアンサーバックをなくして操作のときの煩わし
さを解消し、操作の効率を改善することができる。[3. Effect of First Embodiment] As described above, in the first embodiment, even when processing according to the same word or phrase is performed, the control unit 44 operates to determine which screen and in which situation the utterance was made, The answerback unit 42 outputs or does not output the answerback according to the situation such as which word is spoken. Thereby, while giving necessary information to the user, it is possible to eliminate an unnecessary answer back by a screen or a voice, to solve the troublesomeness of the operation, and to improve the efficiency of the operation.
【0057】特に、第1実施形態では、自車周辺の地図
表示などの基本画面から発話したときと、階層的メニュ
ーなどのメニュー画面から発話したときとで、アンサー
バックの有無を変えるかどうかを、データベースN3に
格納したフラグによって、制御部44がきめ細かく制御
できるので、処理の内容に応じて優れた操作効率を実現
できる。In particular, in the first embodiment, it is determined whether the presence or absence of answer back is changed between when speaking from a basic screen such as a map display around the own vehicle and when speaking from a menu screen such as a hierarchical menu. Since the control unit 44 can finely control with the flag stored in the database N3, excellent operation efficiency can be realized according to the content of the processing.
【0058】具体的には、第1実施形態では、地図の表
示色など設定を変更するための同じ語句でも、制御部4
4の働きによって、基本画面から直接発話したときは設
定の変更とメッセージのアンサーバックを行い、一方、
メニュー画面から発話したときは、その設定についてど
のような選択肢があるかを表す設定画面を表示する。す
なわち、基本画面から直接発話するというのは慣れた使
い方であるから、設定画面で他の選択肢を示すことをせ
ずにそのまま設定を変更し、語句を認識して変更したこ
とを確認する意味でメッセージでユーザに知らせる。Specifically, in the first embodiment, even if the same word for changing the setting such as the display color of the map is used, the control unit 4
By the function of 4, when speaking directly from the basic screen, the setting is changed and the message is backed up,
When the user speaks from the menu screen, a setting screen indicating what options are available for the setting is displayed. In other words, speaking directly from the basic screen is a familiar usage, so change the setting without showing other options on the setting screen, recognize the words and phrases, and confirm that the change was made. Notify the user with a message.
【0059】一方、メニュー画面を辿って発話するとい
うのは不慣れな使い方であるから、設定画面でどのよう
な選択肢があるかを示して選択させ、その代わり、設定
を変更したことやどの選択肢を選んだかは設定画面から
明らかなので、メッセージは出力しない。このように、
ユーザがどのくらい慣れているかに応じて違った処理を
することで、ナビゲーションシステムの設定が変更しや
すくなる。On the other hand, uttering while following the menu screen is an unfamiliar usage, so that the user can select and show what options are available on the setting screen. The message is not output because the selection is clear from the setting screen. in this way,
By performing different processing depending on how familiar the user is, it becomes easier to change the settings of the navigation system.
【0060】〔4.第2実施形態〕第2実施形態は、上
に示した第1実施形態とだいたい同じように構成された
ナビゲーションシステムにおいて、同じ語句が認識され
た場合でも、条件に応じて違った処理をする例である。[4. Second Embodiment] A second embodiment is an example in which a different processing is performed according to a condition even when the same word is recognized in a navigation system configured substantially the same as the first embodiment described above. It is.
【0061】すなわち、第2実施形態では、同じ語句で
現わすことができるメニュー項目や処理などがあると
き、音声認識部14の認識辞書内には、1つの語句のデ
ータだけ保有しておき、その語句が認識されて語句コー
ドがメインCPU及びその周辺回路4に渡されると、制
御部44が、その時点でどの画面が表示されているか、
画面がどのような状態か、前回(最後に)認識された語
句は何かといった条件に応じて、処理部41としてプロ
グラミングされている違った動作を使い分けるようにし
たものである。That is, in the second embodiment, when there is a menu item or a process that can be expressed by the same phrase, only one phrase data is stored in the recognition dictionary of the voice recognition unit 14. When the phrase is recognized and the phrase code is passed to the main CPU and its peripheral circuit 4, the control unit 44 determines which screen is displayed at that time.
Different operations programmed as the processing unit 41 are selectively used depending on the condition of the screen and what the last (last) recognized word is.
【0062】〔4−1.スクロール中の場合〕ここで、
図6は、このように同じ語句が発話されても、条件に応
じて違った処理を行う一例を示すフローチャートであ
る。すなわち、音声認識部14が同じ「モクテキチ」
(目的地)という語句を認識した場合でも(ステップ1
1)、メニュー画面ではなく地図が表示されている画面
で(ステップ12)、しかも、現在の自車位置以外のど
こか別の場所までスクロール(移動)させてその場所を
地図表示しているときに認識された場合は(ステップ1
3)、制御部44が処理部41を制御することで、その
時表示しているその場所を目的地として走行経路を設定
する処理が行われる(ステップ14)。[4-1. (If scrolling)
FIG. 6 is a flowchart showing an example in which different processing is performed in accordance with the condition even when the same phrase is uttered. That is, the voice recognition unit 14 uses the same “mokuteki”
Even if you recognize the phrase (destination) (step 1
1) When the map is displayed on the screen where the map is displayed instead of the menu screen (step 12), and the location is displayed on the map by scrolling (moving) to another location other than the current vehicle position. (Step 1
3), the control unit 44 controls the processing unit 41 to perform a process of setting a traveling route with the currently displayed location as a destination (step 14).
【0063】〔4−2.スクロール中でない場合〕一
方、地図の表示ではなく(ステップ12)、例えば階層
的なメニューのどこかが表示されているときや、現在の
自車位置からスクロールしていないときに(ステップ1
3)同じ「モクテキ」という語句が認識された場合は、
階層的なメニューのうち、その語句に対応する部分が表
示される(ステップ15)。[4-2. When scrolling is not being performed] On the other hand, when a map is not displayed (step 12), for example, when a hierarchical menu is displayed or when the vehicle is not scrolling from the current position (step 1).
3) If the same phrase "mokuteki" is recognized,
A portion corresponding to the phrase in the hierarchical menu is displayed (step 15).
【0064】〔4−3.第2実施形態の効果〕以上のよ
うに、第1実施形態及び第2実施形態では、同じ語句が
認識された場合でも、どの画面のどの状況で発話された
かや、その前にどの語句が発話されたかといった状況に
応じて、違った処理を行う。このため、ユーザが「この
状況では、この言葉」と言うように状況毎に違った語句
を覚える必要が少なくなり、より直感的に操作できるの
で、操作が容易になる。また、同じ語句を違った処理に
使い回せるので、メニュー構成を作る上でも汎用性や柔
軟性が向上する。[4-3. Effect of Second Embodiment] As described above, in the first embodiment and the second embodiment, even when the same word is recognized, which screen is used in which situation and which word is uttered before that. Different processing is performed depending on the situation such as whether or not the processing has been performed. For this reason, it is less necessary for the user to memorize different words for each situation such as "this situation is the word", and the operation can be performed more intuitively, which facilitates the operation. Further, since the same word can be reused for different processing, versatility and flexibility are improved in creating a menu structure.
【0065】〔5.第3実施形態〕また、第3実施形態
は、第1及び第2実施形態とだいたい同じように構成さ
れたナビゲーションシステムにおいて、発話された語句
が認識できないという同じ状況に対して、その前に認識
された語句がどれであったかという条件によって違った
メッセージがアンサーバックされる例である。[5. Third Embodiment] In the third embodiment, in a navigation system having substantially the same configuration as that of the first and second embodiments, the same situation that a spoken word cannot be recognized is recognized before the navigation system. In this example, a different message is answer-backed depending on the condition of the phrase.
【0066】ここでは、ホテル、遊園地、ファミリーレ
ストラン(ファミレス)などいろいろな施設のデータが
データベースN3に登録されていて、「ホテル」という
先行する発話が認識されていくつかのホテルが一覧表示
され、ユーザは続いてホテルの名称を発話することでそ
のなかの1つを選ぶものとする。Here, data of various facilities such as a hotel, an amusement park, a family restaurant (family restaurant) are registered in the database N3, and the preceding utterance "hotel" is recognized, and several hotels are displayed in a list. The user then selects one of the hotels by speaking the name of the hotel.
【0067】〔5−1.レコードの選択〕図7は、この
ような場合の処理手順を示すフローチャートである。す
なわち、音声認識部14が「ホテル」という語句を認識
すると(ステップ21)、メインCPU及びその周辺回
路4とその上で動作しているナビゲーションシステムの
アプリケーションプログラムは、認識結果として語句コ
ードを受け取る。[5-1. Selection of Record] FIG. 7 is a flowchart showing a processing procedure in such a case. That is, when the voice recognition unit 14 recognizes the word "hotel" (step 21), the main CPU and its peripheral circuit 4 and the application program of the navigation system running thereon receive the word code as a recognition result.
【0068】そして、制御部44は、この語句コードに
対応した処理として、例えばデータベースN3からいく
つかのホテルのデータを取り出すといった処理をすると
同時に、データベースN3上でその語句に対応したレコ
ードを選択する(ステップ22)。データベースN3上
のレコードとしては、ユーザがどの語句を発話してどの
種類の施設が選ばれるかに対応して、ホテルのレコード
のほかに、遊園地、ファミレス(ファミリーレストラ
ン)、コンビニエンスストア、ガソリンスタンドといっ
たいろいろなレコードがありうる。Then, the control section 44 performs, for example, a process of extracting some hotel data from the database N3 as a process corresponding to the phrase code, and selects a record corresponding to the phrase on the database N3. (Step 22). The records on the database N3 include, in addition to the hotel records, an amusement park, a family restaurant, a convenience store, and a gas station, in accordance with which words the user utters and what kind of facility is selected. There can be various records.
【0069】ここでは、制御部44は、このように選択
される「ホテル」に対応したレコードRXを選択する
(ステップ22)。このような選択は、認識された語句
コードに基づいてデータベースN3から該当するレコー
ドを取り出すことによって行うことができる。Here, the control unit 44 selects the record RX corresponding to the "hotel" selected in this way (step 22). Such a selection can be made by retrieving the corresponding record from the database N3 based on the recognized phrase code.
【0070】〔5−2.メッセージの出力と発話〕そし
てアンサーバック部42は、このレコードRXに含まれ
ているメッセージM1すなわち「ホテルの名称を言って
ください」を画面に文字表示したり音声合成によって出
力、すなわちアンサーバックする(ステップ23)。[5-2. Output and utterance of message] Then, the answer back unit 42 displays the message M1 included in the record RX, that is, "Please say the name of the hotel", on the screen or outputs it by voice synthesis, that is, answer back ( Step 23).
【0071】ユーザは、このアンサーバックによって、
ホテルの名称を発話すればよいということがわかるの
で、ホテルの名称を表す語句を発話する。そして、音声
認識部14がその認識を試み(ステップ24)、語句が
認識されると(ステップ25)、認識されたホテル周辺
の地図を処理部41が、表示制御部46を経て出力部1
0の表示画面に表示する(ステップ26)。The user can use the answer back to
Since it is understood that the name of the hotel should be uttered, the phrase indicating the name of the hotel is uttered. Then, the speech recognition unit 14 attempts the recognition (step 24), and when the phrase is recognized (step 25), the processing unit 41 outputs the recognized map around the hotel to the output unit 1 via the display control unit 46.
0 is displayed on the display screen (Step 26).
【0072】〔5−3.認識されなかったときの処理〕
一方、ユーザが誤った語句を発話すると、音声認識部1
4の認識用辞書141内には、発話された語句に一致す
るものがないため、音声認識部14からは、認識できな
かったことを示すコードが送られてくる。この場合、制
御部44による制御にしたがって、アンサーバック部4
2は、選択されているレコードRXに含まれているメッ
セージM2すなわち「正式名称で指示していますか?」
というNOTメッセージを出力する(ステップ27)。[5-3. Processing when not recognized)
On the other hand, when the user utters an incorrect phrase, the speech recognition unit 1
Since there is no word in the recognition dictionary 141 corresponding to the uttered word in the recognition dictionary 141, a code indicating that the word could not be recognized is sent from the voice recognition unit 14. In this case, according to the control of the control unit 44, the answer back unit 4
2 is the message M2 included in the selected record RX, that is, "Is the instruction designated by the official name?"
Is output (step 27).
【0073】これによって、ユーザは、正しい語句を発
話するためのヒントを与えられることになり、正式名称
と思われる語句を発話してみるといった効率的な操作を
試みることができる。As a result, the user is given a hint for speaking a correct phrase, and can try an efficient operation such as speaking a phrase that is considered to be a formal name.
【0074】〔5−4.メッセージの他の例〕もちろ
ん、レコードに含まれるメッセージは、どのような種類
の施設が選ばれるかに応じて違ったものを用意しておけ
ばよく、例えば、「オンリョウチョウセイ」(音量調
整)という語句が発話されることで音量調整が行われる
画面では、発話された語句が認識できないとき、「音量
大とか、音量OFFとか言ってください」などのNOT
メッセージをアンサーバックすればよい。また、「ホテ
ル」に対応するNOTメッセージの別の例として、「頭
に「ホテル」がつきませんか?」なども考えられる。[5-4. Other examples of messages] Of course, the messages included in the record may be prepared differently depending on what kind of facility is selected. For example, "On-Dry Adjust" (volume adjustment On the screen where the volume is adjusted by uttering the phrase "), if the uttered phrase cannot be recognized, a NOT such as" Please say loud or loud "
Answerback the message. Another example of a NOT message corresponding to “hotel” is “Do you have“ hotel ”in the head? And so on.
【0075】なお、これらメッセージM1やM2のよう
に、選択されたレコードに含まれるメッセージの他に、
検索にかかわる画面で共通の定型メッセージを用意して
おいてもよく、選択されたレコードに含まれるメッセー
ジと、そのような定型的なメッセージを交互に出力すれ
ば、ユーザにもっと多くのヒントを与えることになり、
ユーザインタフェースが一層優れたものとなる。In addition to the messages included in the selected record, such as these messages M1 and M2,
It is possible to prepare a common fixed message on the screen related to the search, and if the message included in the selected record and such a fixed message are alternately output, more hints will be given to the user That means
A better user interface.
【0076】〔5−5.第3実施形態の効果〕以上のよ
うに、第3実施形態では、アンサーバックされるメッセ
ージの内容が、データベースN3や制御部44の働きに
よって、状況に応じた的確な内容に変わるので、ユーザ
は次に発話すべき内容などを容易に理解でき、操作の効
率が向上する。[5-5. Effect of Third Embodiment] As described above, in the third embodiment, the contents of the message to be answered are changed to accurate contents according to the situation by the operation of the database N3 and the control unit 44. The contents to be uttered next can be easily understood, and the operation efficiency is improved.
【0077】特に、第3実施形態では、語句の発話によ
ってある一連の処理が開始されるような場合、次に何を
発話すればよいのかを、その語句に応じたメッセージに
よってユーザに知らせることができるので、操作が容易
になる。In particular, in the third embodiment, when a certain series of processing is started by the utterance of a word, it is possible to inform the user of what should be uttered next by a message corresponding to the word. Operation can be easily performed.
【0078】具体的には、第3実施形態では、語句が認
識できなかったときにアンサーバックされるメッセージ
の内容が、先行する語句に応じて変化する。すなわち、
先行する語句によってある一連の処理が開始されたが、
ユーザが間違った語句を発話するなどして認識されなか
ったような場合でも、本来は何を発話すればよいのか
を、先行する語句すなわち処理の内容に応じたメッセー
ジでユーザに知らせることができる。このため、注意事
項のようなユーザへの指示を一度に羅列するように出力
する必要がなくなり、使いやすいユーザインタフェース
が実現される。Specifically, in the third embodiment, the content of a message to be answered when a phrase cannot be recognized changes according to the preceding phrase. That is,
The preceding phrase triggered a series of actions,
Even in the case where the user does not recognize the word, for example, by uttering a wrong word, the user can be notified of what should be uttered by a preceding word, that is, a message corresponding to the content of the processing. For this reason, it is not necessary to output instructions such as notes to the user so that they are listed at once, and an easy-to-use user interface is realized.
【0079】特に、第1〜第3実施形態に具体例を示し
たようなそれぞれの発明を併用すれば、同じ語句を発話
した場合でも、その語句に基づく処理の内容、その語句
に対するアンサーバックの内容、語句が認識できなかっ
たときのアンサーバックの内容が変化することになる。In particular, if the respective inventions as exemplified in the first to third embodiments are used in combination, even when the same word is uttered, the contents of the processing based on the word and the answer back of the word The content of the answer back when the content or phrase cannot be recognized changes.
【0080】このため、音声認識を使ったユーザインタ
フェースについて、ユーザをナビゲーションシステムが
分かり易く誘導して困惑を減らせるだけでなく、初心者
にはやさしく、慣れたユーザには効率的で煩わしさのな
いユーザインタフェースを実現できる。これにより、ま
るで人間と話しているような感覚でナビゲーションシス
テムを操作でき、わかりやすいユーザインターフェース
を実現することができる。Therefore, regarding the user interface using voice recognition, not only can the navigation system guide the user in an easy-to-understand manner to reduce confusion, but it is also easy for beginners and efficient and troublesome for experienced users. A user interface can be realized. As a result, the navigation system can be operated as if talking with a human, and an intuitive user interface can be realized.
【0081】〔6.他の実施の形態〕なお、この発明は
上に述べた実施形態に限定されるものではなく、次に例
示するような他の実施の形態も含むものである。例え
ば、この発明のナビゲーションシステムは、自動車に搭
載するいわゆるカーナビゲーションシステムだけでな
く、二輪車など他の種類の移動体に使うこともできる。[6. Other Embodiments] The present invention is not limited to the above-described embodiments, but includes other embodiments as exemplified below. For example, the navigation system of the present invention can be used not only for a so-called car navigation system mounted on an automobile, but also for other types of moving objects such as motorcycles.
【0082】また、上に述べた実施形態では、NOTメ
ッセージを、1つの語句について1つずつデータベース
N3内に格納したが、データベースの形式は自由であ
る。また、1つの語句あたり2つ以上のNOTメッセー
ジを用意しておき、語句を認識できない状態がつづいた
場合にはそれらを順次表示させていくこともできる。さ
らに、メッセージやNOTメッセージをデータベースで
保有せず、アプリケーションプログラムで保有するよう
にしてもよい。In the embodiment described above, the NOT messages are stored in the database N3 one by one for each word and phrase, but the format of the database is free. In addition, two or more NOT messages can be prepared for each phrase, and when a state in which the phrase cannot be recognized continues, these messages can be sequentially displayed. Further, the message or the NOT message may not be stored in the database but may be stored in the application program.
【0083】また、音声認識の具体的なアルゴリズム、
認識する語句、アンサーバックの内容、基本画面やメニ
ュー画面の内容、フラグの形式、アンサーバックをする
かどうかやその内容を変えるための条件の内容などは、
実施形態で挙げた例には限定されず、自由に決めること
ができる。Further, a specific algorithm of speech recognition,
The words to be recognized, the contents of the answer back, the contents of the basic screen and menu screen, the format of the flag, whether to perform answer back and the contents of the conditions for changing the contents, etc.
The invention is not limited to the examples described in the embodiments, and can be freely determined.
【0084】[0084]
【発明の効果】以上のように、この発明によれば、アン
サーバックを条件に応じて変化させることで、操作の効
率を改善することができる。As described above, according to the present invention, it is possible to improve the operation efficiency by changing the answer back according to the conditions.
【図1】この発明の第1実施形態のハードウェア構成を
示すブロック図。FIG. 1 is a block diagram showing a hardware configuration according to a first embodiment of the present invention.
【図2】この発明の第1実施形態の具体的な構成を示す
機能ブロック図。FIG. 2 is a functional block diagram showing a specific configuration of the first embodiment of the present invention.
【図3】この発明の第1実施形態において、階層的に構
成されたメニュー画面を辿って語句を順次発話するとき
の操作手順を示す概念図。FIG. 3 is a conceptual diagram showing an operation procedure when sequentially uttering words while following a hierarchically configured menu screen in the first embodiment of the present invention.
【図4】この発明の第1実施形態において、地図を表示
している基本画面から、メニュー階層の最下層の語句を
直接発話するときの操作手順を示す概念図。FIG. 4 is a conceptual diagram showing an operation procedure when directly speaking a word at the bottom of a menu hierarchy from a basic screen displaying a map in the first embodiment of the present invention.
【図5】この発明の第1実施形態において、認識された
語句の番号に応じた処理が行われることを示す概念図。FIG. 5 is a conceptual diagram showing that processing according to the number of a recognized phrase is performed in the first embodiment of the present invention.
【図6】この発明の第2実施形態における処理手順の例
を示すフローチャート。FIG. 6 is a flowchart illustrating an example of a processing procedure according to the second embodiment of the present invention.
【図7】この発明の第3実施形態における処理手順の例
を示すフローチャート。FIG. 7 is a flowchart illustrating an example of a processing procedure according to a third embodiment of the present invention.
V…音声認識ユニット V1…ROM V2…認識用辞書 N…ナビゲーションユニット N1…CD−ROM N2…フラッシュメモリ N3…データベース N4…アプリケーションプログラム 1…絶対位置・方位検出部 2…相対方位検出部 3…車速検出部 4…メインCPU及びその周辺回路 M…メモリ群 5…ROM 6…DRAM 7…SRAM 8…VRAM 10…出力部 11…入力部 12…CD−ROM制御部 13…FM多重受信及び処理部 14…音声認識部 141…認識用辞書 41…処理部 42…アンサーバック部 43…表示制御部 44…制御部 V: Voice recognition unit V1: ROM V2: Recognition dictionary N: Navigation unit N1: CD-ROM N2: Flash memory N3: Database N4: Application program 1: Absolute position / direction detection unit 2: Relative direction detection unit 3: Vehicle speed Detector 4 Main CPU and its peripheral circuits M Memory group 5 ROM 6 DRAM 7 SRAM 8 VRAM 10 Output unit 11 Input unit 12 CD-ROM control unit 13 FM multiplex reception and processing unit 14 ... Speech recognition unit 141 ... Recognition dictionary 41 ... Processing unit 42 ... Answer unit 43 ... Display control unit 44 ... Control unit
Claims (16)
じて行う手段と、 おこなった処理に応じてメッセージをアンサーバックす
る手段と、 を備えたナビゲーションシステムにおいて、 あらかじめ決められた条件に応じて、アンサーバックす
るかどうかを制御する制御手段を備えたことを特徴とす
るナビゲーションシステム。1. A means for recognizing an uttered word by voice, means for performing a process related to navigation in accordance with the recognized word, and means for answerbacking a message in accordance with the executed process. A navigation system, comprising: a control unit that controls whether to perform answer-back according to a predetermined condition.
段と、 それぞれの前記語句ごとに、前記処理にかかわるメッセ
ージと、フラグと、を格納する手段と、を備え、 前記制御手段は、語句に対応するフラグがあらかじめ決
められた状態の場合、その語句が前記基本画面で発話さ
れたときは前記メッセージをアンサーバックし、その語
句が前記メニュー画面で発話されたときは前記メッセー
ジをアンサーバックしないように制御することを特徴と
する請求項1記載のナビゲーションシステム。2. A means for displaying a basic screen and a menu screen, and means for storing, for each of the words, a message relating to the processing and a flag, wherein the control means comprises: When the corresponding flag is in a predetermined state, the message is answered when the word is uttered on the basic screen, and the message is not answered when the word is uttered on the menu screen. The navigation system according to claim 1, wherein the control is performed in the following manner.
じて行う手段と、 同じ語句が認識された場合でも、あらかじめ決められた
条件に応じて違った処理を行うように制御する制御手段
を備えたことを特徴とするナビゲーションシステム。3. A means for recognizing an uttered word and a means for performing navigation-related processing in accordance with the recognized word. Even if the same word is recognized, the means is determined according to a predetermined condition. A navigation system comprising control means for performing control so as to perform different processing.
段を備え、 前記制御手段は、 ナビゲーションシステムの設定を変更するための語句が
前記基本画面で発話されたときは、設定の変更と、あら
かじめ決められたメッセージのアンサーバックを行わ
せ、 ナビゲーションシステムの設定を変更するための語句が
前記メニュー画面で発話されたときは、その設定につい
てどのような選択肢があるかを表す設定画面を表示させ
るように構成されたことを特徴とする請求項3記載のナ
ビゲーションシステム。4. A means for displaying a basic screen and a menu screen, wherein the control means, when a word for changing a setting of a navigation system is uttered on the basic screen, changes the setting, and When a word for changing the setting of the navigation system is uttered on the menu screen, a setting screen indicating what options are available for the setting is displayed. 4. The navigation system according to claim 3, wherein:
じて行う手段と、 おこなった処理に応じてメッセージをアンサーバックす
る手段と、 を備えたナビゲーションシステムにおいて、 あらかじめ決められた条件に応じて、アンサーバックす
るメッセージの内容を変える制御手段を備えたことを特
徴とするナビゲーションシステム。5. Means for recognizing a spoken word by voice, means for performing processing related to navigation in accordance with the recognized word, and means for answerbacking a message in accordance with the performed processing. A navigation system, comprising: a control unit that changes the contents of a message to be answered in response to a predetermined condition.
めのメッセージを、それぞれの前記語句ごとに格納する
手段を備えたことを特徴とする請求項5記載のナビゲー
ションシステム。6. The navigation system according to claim 5, further comprising means for storing a message to be output when said phrase is recognized, for each of said phrases.
れた別の語句が認識できなかったときに出力するための
メッセージを、それぞれの前記語句ごとに格納する手段
を備えたことを特徴とする請求項5又は6記載のナビゲ
ーションシステム。7. A means for storing, for each of said phrases, a message to be output when another phrase spoken subsequent to recognition of said phrase cannot be recognized. The navigation system according to claim 5 or 6, wherein
と、 ナビゲーションにかかわる処理を、認識された語句に応
じて行うステップと、 おこなった処理に応じてメッセージをアンサーバックす
るステップと、 を含むナビゲーション方法において、 あらかじめ決められた条件に応じて、アンサーバックす
るかどうかを制御する制御のステップを含むことを特徴
とするナビゲーション方法。8. A navigation system comprising: a step of recognizing a spoken word; a step of performing a navigation-related process according to the recognized word; and a step of answerbacking a message according to the performed process. A navigation method, comprising: a control step of controlling whether to answer back according to a predetermined condition.
ージと、フラグと、をあらかじめ格納しておき、 前記制御のステップは、語句に対応するフラグがあらか
じめ決められた状態の場合、その語句が前記基本画面で
発話されたときは前記メッセージをアンサーバックし、
その語句が前記メニュー画面で発話されたときは前記メ
ッセージをアンサーバックしないように制御することを
特徴とする請求項8記載のナビゲーション方法。9. A step of displaying a basic screen, a step of displaying a menu screen, a message and a flag relating to the processing are stored in advance for each of the phrases, and the step of controlling includes: If the flag corresponding to the word is in a predetermined state, the message is answered when the word is uttered on the basic screen,
9. The navigation method according to claim 8, wherein when the word is uttered on the menu screen, the message is controlled not to answer back.
プと、 ナビゲーションにかかわる処理を、認識された語句に応
じて行うステップと、 同じ語句が認識された場合でも、あらかじめ決められた
条件に応じて違った処理を行うように制御するステップ
と、 を含むことを特徴とするナビゲーション方法。10. A step of voice-recognizing an uttered word and a step of performing navigation-related processing in accordance with the recognized word. Even if the same word is recognized, the same is performed in accordance with a predetermined condition. Controlling the vehicle to perform a different process.
プと、 ナビゲーションにかかわる処理を、認識された語句に応
じて行うステップと、 おこなった処理に応じてメッセージをアンサーバックす
るステップと、 を含むナビゲーション方法において、 あらかじめ決められた条件に応じて、アンサーバックす
るメッセージの内容を変えるステップを含むことを特徴
とするナビゲーション方法。11. A navigation system comprising: a step of recognizing an uttered word by voice; a step of performing a navigation-related process according to the recognized word; and a step of answerbacking a message according to the performed process. A navigation method, comprising: changing a content of a message to be answered according to a predetermined condition.
ためのメッセージを、それぞれの前記語句ごとにあらか
じめ格納しておくことを特徴とする請求項11記載のナ
ビゲーション方法。12. The navigation method according to claim 11, wherein a message to be output when the phrase is recognized is stored in advance for each of the phrases.
された別の語句が認識できなかったときに出力するため
のメッセージを、それぞれの前記語句ごとにあらかじめ
格納しておくことを特徴とする請求項11又は12記載
のナビゲーション方法。13. A message to be output when another word uttered subsequent to recognition of said word is not recognized is stored in advance for each of said words. The navigation method according to claim 11 or 12, wherein the navigation method is performed.
ーションをするためのナビゲーション用ソフトウェアを
記録した記録媒体において、 そのソフトウェアは前記コンピュータに、 発話された語句を音声認識させ、 ナビゲーションにかかわる処理を、認識された語句に応
じて行わせ、 おこなった処理に応じてメッセージをアンサーバックさ
せ、 あらかじめ決められた条件に応じて、アンサーバックす
るかどうかを制御させることを特徴とするナビゲーショ
ン用ソフトウェアを記録した記録媒体。14. A recording medium on which navigation software for navigating a moving object by using a computer is recorded. The software causes the computer to recognize a spoken word by voice, and recognizes a process related to navigation. A record that records navigation software, characterized in that it is performed according to a given word, a message is backsacked according to the processing performed, and whether or not the backsack is controlled according to a predetermined condition. Medium.
ーションをするためのナビゲーション用ソフトウェアを
記録した記録媒体において、 そのソフトウェアは前記コンピュータに、 発話された語句を音声認識させ、 ナビゲーションにかかわる処理を、認識された語句に応
じて行わせ、 同じ語句が認識された場合でも、あらかじめ決められた
条件に応じて違った処理を行わせることを特徴とするナ
ビゲーション用ソフトウェアを記録した記録媒体。15. A recording medium on which navigation software for navigating a moving object using a computer is recorded. The software causes the computer to recognize a spoken word by speech, and recognizes a process related to navigation. A recording medium on which navigation software is recorded, wherein the navigation software is performed in accordance with a given word and, even when the same word is recognized, different processing is performed in accordance with a predetermined condition.
ーションをするためのナビゲーション用ソフトウェアを
記録した記録媒体において、 そのソフトウェアは前記コンピュータに、 発話された語句を音声認識させ、 ナビゲーションにかかわる処理を、認識された語句に応
じて行わせ、 おこなった処理に応じてメッセージをアンサーバックさ
せ、 前記語句が認識されたときに出力するためのメッセージ
と、前記語句が認識されたのに続いて発話された別の語
句が認識できなかったときに出力するためのメッセージ
と、をそれぞれの前記語句ごとにあらかじめ格納してお
き、 これらのメッセージを使って、あらかじめ決められた条
件に応じて、アンサーバックするメッセージの内容を変
えさせることを特徴とするナビゲーション用ソフトウェ
アを記録した記録媒体。16. A recording medium on which navigation software for navigating a moving object using a computer is recorded. The software causes the computer to recognize a spoken word by voice and recognizes a process related to navigation. A message to be answered according to the processing performed, a message to be output when the word is recognized, and a message to be output following the recognition of the word. And a message to be output when the phrase is not recognized is stored in advance for each of the phrases, and using these messages, a message to be answered according to a predetermined condition is used. Navigation software characterized by changing content Recording medium on which
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14869598A JP3676571B2 (en) | 1998-05-29 | 1998-05-29 | Navigation system and method, and recording medium recording navigation software |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14869598A JP3676571B2 (en) | 1998-05-29 | 1998-05-29 | Navigation system and method, and recording medium recording navigation software |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11337366A true JPH11337366A (en) | 1999-12-10 |
JP3676571B2 JP3676571B2 (en) | 2005-07-27 |
Family
ID=15458542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14869598A Expired - Fee Related JP3676571B2 (en) | 1998-05-29 | 1998-05-29 | Navigation system and method, and recording medium recording navigation software |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3676571B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6658386B2 (en) * | 2000-12-12 | 2003-12-02 | International Business Machines Corporation | Dynamically adjusting speech menu presentation style |
JP2004045616A (en) * | 2002-07-10 | 2004-02-12 | Equos Research Co Ltd | On-board device, data preparation device and data preparation program |
-
1998
- 1998-05-29 JP JP14869598A patent/JP3676571B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6658386B2 (en) * | 2000-12-12 | 2003-12-02 | International Business Machines Corporation | Dynamically adjusting speech menu presentation style |
JP2004045616A (en) * | 2002-07-10 | 2004-02-12 | Equos Research Co Ltd | On-board device, data preparation device and data preparation program |
Also Published As
Publication number | Publication date |
---|---|
JP3676571B2 (en) | 2005-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2245609B1 (en) | Dynamic user interface for automated speech recognition | |
EP1450349B1 (en) | Vehicle-mounted control apparatus and program that causes computer to execute method of providing guidance on the operation of the vehicle-mounted control apparatus | |
US8428951B2 (en) | Speech recognition apparatus, navigation apparatus including a speech recognition apparatus, and a control screen aided speech recognition method | |
JP3492145B2 (en) | Map display control method and device, and recording medium recording map display control program | |
JP5637131B2 (en) | Voice recognition device | |
RU2425329C2 (en) | Navigation device and method of receiving and reproducing audio images | |
JP2008014818A (en) | Operation control device and program | |
JP2002156241A (en) | Navigation apparatus and recording medium with program recorded thereon | |
JPH0950291A (en) | Voice recognition device and navigation device | |
JP2010039099A (en) | Speech recognition and in-vehicle device | |
JP4262837B2 (en) | Navigation method using voice recognition function | |
JP4268325B2 (en) | Voice operation phrase presentation device and presentation method | |
JP4036966B2 (en) | Navigation system and method, and recording medium recording navigation software | |
JP3676571B2 (en) | Navigation system and method, and recording medium recording navigation software | |
JP2008310344A (en) | Presentation device and presentation method | |
JP3500948B2 (en) | Voice recognition device | |
JP4262619B2 (en) | Information processing apparatus, control method thereof, and program | |
JP2001272245A (en) | Navigation device and method, and recording medium in which software for navigation is recorded | |
JPH11337362A (en) | System and method for navigation as well as recording medium with recorded software for navigation | |
JPH09287971A (en) | Navigation apparatus | |
JP3350257B2 (en) | Travel position display device | |
JPH11337365A (en) | System and method for navigation as well as recording medium with recorded software for navigation | |
JPH11337364A (en) | System and method for navigation as well as recording medium with recorded software for navigation | |
JP2997164B2 (en) | Map display device | |
JPH10198549A (en) | Information processor, navigation device, speech inputting method and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050428 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080513 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090513 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100513 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110513 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120513 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130513 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130513 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |