JP2001306089A - Voice processor and navigation device - Google Patents

Voice processor and navigation device

Info

Publication number
JP2001306089A
JP2001306089A JP2000122262A JP2000122262A JP2001306089A JP 2001306089 A JP2001306089 A JP 2001306089A JP 2000122262 A JP2000122262 A JP 2000122262A JP 2000122262 A JP2000122262 A JP 2000122262A JP 2001306089 A JP2001306089 A JP 2001306089A
Authority
JP
Japan
Prior art keywords
voice
user
proposal
opinion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000122262A
Other languages
Japanese (ja)
Inventor
Yasuo Muto
泰夫 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2000122262A priority Critical patent/JP2001306089A/en
Publication of JP2001306089A publication Critical patent/JP2001306089A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a voice processor and a navigation device which can improve operability. SOLUTION: When a voice recognition button 62 is pressed, a proposal presentation part 68 vocally presents a candidate for an operation indication that a user performs next via a loudspeaker 12. When the user vocally shows an affirmative or an inaffirmative view to the presented candidate for the operation indication, a voice recognition part 64 recognizes the voice to specify a corresponding character string. When a character string, outputted from the voice recognition part 64, is an affirmative such as 'Yes', an operation content setting part 70 sets the operation contents for an operation object device and output it according to the candidate for the operation indication corresponding to the view.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、入力音声に対応し
た各種の処理を行う音声処理装置及びナビゲーション装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice processing device for performing various processes corresponding to input voice and a navigation device.

【0002】[0002]

【従来の技術】従来から、利用者が発声した操作指示の
音声に対して音声認識処理を行い、認識内容に基づいて
各種の操作を実行する音声処理装置が知られている。音
声処理装置を用いてナビゲーション装置に対する各種の
操作指示を行う場合を考えると、利用者は、あらかじめ
操作指示用に登録されているいくつかのコマンドの中か
ら一つを選択してこのコマンドを発声する必要がある。
2. Description of the Related Art Conventionally, there has been known a voice processing apparatus which performs voice recognition processing on a voice of an operation instruction uttered by a user and executes various operations based on the recognition content. Considering a case where various operation instructions are given to a navigation device using a voice processing device, a user selects one of several commands registered in advance for operation instructions and utters this command. There is a need to.

【0003】例えば、非対話型の音声処理装置を用いた
場合には、利用者は、あらかじめ決められている一定の
規則に従って、複数のコマンドを発声する。これら複数
のコマンドは、音声処理装置あるいは音声認識結果を用
いて操作が行われるナビゲーション装置の処理の都合に
合わせて、入力順が決まっており、利用者は、必要なコ
マンドを所定の順番で発声するだけで、ナビゲーション
装置に対する各種の操作指示を行うことができる。
For example, when a non-interactive voice processing device is used, a user utters a plurality of commands according to predetermined rules. The input order of these commands is determined according to the processing of the voice processing device or the navigation device operated by using the voice recognition result, and the user can utter the necessary commands in a predetermined order. Various operations can be instructed to the navigation device simply by doing.

【0004】また、対話型の音声処理装置を用いた場合
には、利用者は、音声処理装置による問い合わせに応じ
る形で、次々に必要なコマンドを発声するだけで、ナビ
ゲーション装置に対する各種の操作指示を行うことがで
きる。例えば、音声処理装置から利用者に対して、「何
をするのか?」、「何を探すのか?」等の問い合わせがな
され、利用者は、「探す」、「銀行」等のあらかじめ用
意されているいくつかの単語を発声するだけで、ナビゲ
ーション装置に対して「最寄り施設として銀行を探す」
旨の操作指示を行うことができる。
[0004] When an interactive voice processing device is used, the user simply issues necessary commands one after another in response to inquiries from the voice processing device, and performs various operation instructions to the navigation device. It can be performed. For example, the voice processing device inquires the user, "What to do?", "What to look for?", Etc., and the user is prepared in advance such as "Search", "Bank", etc. Just say a few words to tell the navigation device "look for a bank as the nearest facility"
Operation instruction to that effect.

【0005】[0005]

【発明が解決しようとする課題】ところで、上述した従
来の音声処理装置は、利用者の手による操作が不要にな
る点で便利であるが、その反面、音声入力の対象となる
複数のコマンド等を覚える必要があるため、使い慣れる
まで操作がしづらいという問題があった。例えば、上述
した非対話型の音声処理装置では、入力する各種のコマ
ンド等をそれらの入力順も含めて覚える必要があり、慣
れるまでは操作マニュアル本を見る必要があった。ま
た、対話型の音声処理装置では、音声入力するコマンド
等の順番については覚える必要がないが、音声処理装置
からの問い合わせに対して、どのようなコマンド等を音
声入力することができるのかについては各利用者が覚え
ている必要がある。例えば「何をするのか?」という問
い合わせに対して、「検索」、「情報」、「目的地」と
いう選択候補があらかじめ用意されている場合には、利
用者はこの3つのコマンドの中から正確に一つを選択し
て音声入力する必要があり、それ以外のコマンドを勝手
に作って音声入力することは許されない。したがって、
音声入力の候補となるコマンド等を覚えていない利用者
は、結局操作マニュアル本を調べる必要があり、操作し
やすいとはいえなかった。
By the way, the above-mentioned conventional voice processing apparatus is convenient in that the operation by the user is not required, but on the other hand, a plurality of commands and the like to be voice input are required. There is a problem that it is difficult to operate until the user gets used to it because he needs to learn the information. For example, in the above-described non-interactive voice processing device, it is necessary to memorize various commands and the like to be input, including the order in which they are input, and it is necessary to look at an operation manual book until one gets used to it. Also, in an interactive voice processing device, it is not necessary to remember the order of commands and the like to be input by voice. However, in response to an inquiry from the voice processing device, what commands and the like can be voice input can be used. Each user needs to remember. For example, in response to the query "What do you want to do?", If the selection candidates "Search", "Information", and "Destination" are prepared in advance, the user can select the correct command from these three commands. Must be selected and input by voice, and it is not allowed to make other commands without permission and input by voice. Therefore,
A user who does not remember the command or the like which is a candidate for voice input must eventually check the operation manual, which is not easy to operate.

【0006】本発明は、このような点に鑑みて創作され
たものであり、その目的は、操作性を向上させることが
できる音声処理装置およびナビゲーション装置を提供す
ることにある。
The present invention has been made in view of the above points, and an object of the present invention is to provide a voice processing device and a navigation device which can improve operability.

【0007】[0007]

【課題を解決するための手段】上述した課題を解決する
ために、本発明の音声処理装置は、提案提示手段によっ
て利用者が次に行う操作指示について提案を行い、提示
された提案に対して、利用者による肯定的あるいは否定
的な見解が音声によって示されたときに、この音声に対
して音声認識処理手段により音声認識処理を行い、得ら
れた認識結果が肯定的な見解を示すものである場合に、
この見解に対応する提案に基づいて、操作内容設定手段
により操作対象装置に対する操作内容を設定している。
このように、次に行う操作指示について音声処理装置側
から提案がなされ、これに対して利用者は、「うん」、
「はい」、「ちがう」、「いいえ」等の単純な言葉を発
声して肯定的あるいは否定的な見解を伝えるだけで、操
作内容を設定することができるので、操作内容を設定す
るために複数のコマンド等を覚える必要がなく、操作性
を向上させることができる。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, a voice processing apparatus of the present invention proposes an operation instruction to be performed next by a user by a suggestion presenting means, and responds to the presented suggestion. , When a positive or negative opinion by a user is given by voice, the voice is subjected to voice recognition processing by voice recognition processing means, and the obtained recognition result indicates a positive opinion. In some cases,
Based on the proposal corresponding to this opinion, the operation content for the operation target device is set by the operation content setting means.
In this way, the voice processing apparatus proposes the next operation instruction, and the user responds with “Yeah”,
The operation content can be set simply by saying simple words such as "yes", "different", and "no" to convey a positive or negative opinion. It is not necessary to memorize the command or the like, and the operability can be improved.

【0008】また、操作内容設定手段によって設定され
る操作内容を学習する学習手段をさらに備えることが望
ましい。操作内容設定手段によって設定される操作内容
を学習することにより、利用者が使用する頻度の高い操
作内容ほど、次に操作指示の提案を行う際に優先される
ようにする等、利用者の個性を反映した提案を行うこと
ができる。
Further, it is desirable to further comprise learning means for learning the operation content set by the operation content setting means. By learning the operation content set by the operation content setting means, the user's personality, such that the operation content that is more frequently used by the user is given priority in the next proposal of an operation instruction. Can make a proposal that reflects

【0009】また、上述した提案提示手段は、音声認識
処理手段による認識結果が否定的な見解を示すものであ
る場合に、提示内容の範囲を広くした次の提案を行うこ
とが望ましい。否定的な見解が得られた場合に、提示内
容の範囲を広くした提案を行うことで、利用者の意図に
沿った操作内容を提案できる可能性を高めることができ
る。
[0009] In addition, it is desirable that the above-mentioned suggestion presenting means make the following suggestion with a wider range of presented contents when the recognition result by the speech recognition processing means indicates a negative opinion. When a negative opinion is obtained, by making a proposal with a wider range of content to be presented, it is possible to increase the possibility of proposing an operation content that meets the user's intention.

【0010】また、本発明のナビゲーション装置は、ナ
ビゲーション処理手段によって所定のナビゲーション動
作を行う際に、提案提示手段によって利用者が次に行う
操作指示について提案を行い、提示された提案に対し
て、利用者による肯定的あるいは否定的な見解が音声に
よって示されたときに、この音声に対して音声認識処理
手段により音声認識処理を行い、得られた認識結果が肯
定的な見解を示すものである場合に、この見解に対応す
る提案に基づいて、操作内容設定手段により、ナビゲー
ション処理手段に対する操作内容を設定している。そし
て、上述した提案提示手段は、音声認識処理手段による
認識結果が否定的な見解を示すものである場合に、提示
内容の範囲を広くした次の提案を行っている。
Further, in the navigation device of the present invention, when a predetermined navigation operation is performed by the navigation processing means, a suggestion is provided by the proposal presenting means to the next operation instruction by the user. When a user's positive or negative opinion is indicated by voice, the voice is subjected to voice recognition processing by the voice recognition processing means, and the obtained recognition result indicates a positive opinion. In such a case, the operation contents for the navigation processing means are set by the operation contents setting means based on the proposal corresponding to this opinion. Then, the above-mentioned suggestion presenting means makes the following proposal in which the range of the presented content is widened when the recognition result by the speech recognition processing means indicates a negative opinion.

【0011】一般に、車載用のナビゲーション装置で
は、音声入力により操作指示を行うようにすることで、
利用者の手による操作が不要となり操作性を向上させる
ことができるが、本発明では、次に行う操作指示につい
てナビゲーション装置側から提案がなされ、これに対し
て利用者は、「うん」、「はい」、「ちがう」、「いい
え」等の単純な言葉を発声して肯定的あるいは否定的な
見解を伝えるだけで、操作内容を設定することができる
ので、操作内容を設定するために複数のコマンド等を覚
える必要がなく、操作性をさらに向上させることができ
る。また、否定的な見解が得られる毎に、提示内容の範
囲を広くした提案を行うことで、利用者の意図に沿った
操作内容を提案できる可能性を高めることができる。
[0011] Generally, in a car navigation system, an operation instruction is given by voice input.
Although the operation by the user is not required, the operability can be improved. However, in the present invention, the navigation device proposes the next operation instruction. By simply saying simple words such as "Yes,""No," or "No," and giving a positive or negative opinion, you can set the operation details. There is no need to learn commands and the like, and operability can be further improved. Further, each time a negative opinion is obtained, by making a proposal with a wider range of content to be presented, it is possible to increase the possibility of proposing an operation content that meets the user's intention.

【0012】[0012]

【発明の実施の形態】以下、本発明を適用した一実施形
態のナビゲーション装置について、図面を参照しながら
説明する。図1は、本発明を適用した一実施形態の車載
用ナビゲーション装置の構成を示す図である。図1に示
すナビゲーション装置は、全体を制御するナビゲーショ
ンコントローラ1、DVD2、ディスク読取装置3、操
作部4、GPS受信機5、自律航法センサ6、ビーコン
送受信機7、FM多重放送受信機8、ディスプレイ装置
9、音声処理装置10、メモリ11、スピーカ12を含
んで構成されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A navigation device according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a configuration of an on-vehicle navigation device according to an embodiment to which the present invention is applied. The navigation device shown in FIG. 1 includes a navigation controller 1 for controlling the whole, a DVD 2, a disk reader 3, an operation unit 4, a GPS receiver 5, an autonomous navigation sensor 6, a beacon transceiver 7, an FM multiplex broadcast receiver 8, a display. It is configured to include a device 9, an audio processing device 10, a memory 11, and a speaker 12.

【0013】ナビゲーションコントローラ1は、ナビゲ
ーション装置全体の動作を制御するものである。ナビゲ
ーションコントローラ1の詳細構成については後述す
る。DVD2は、地図表示や経路探索等に必要な各種の
地図データを記録している。ディスク読取装置3は、1
枚あるいは複数枚のDVD2が装填可能であり、ナビゲ
ーションコントローラ1の制御によっていずれかのDV
D2から地図データの読み出しを行う。なお、装填され
るディスクは必ずしもDVDでなくてもよく、CDでも
よい。また、DVDとCDの双方を選択的に装填可能と
してもよい。
The navigation controller 1 controls the operation of the entire navigation device. The detailed configuration of the navigation controller 1 will be described later. The DVD 2 records various map data necessary for map display, route search, and the like. The disk reader 3 is 1
One or a plurality of DVDs 2 can be loaded.
The map data is read from D2. The loaded disk is not necessarily a DVD, but may be a CD. Alternatively, both a DVD and a CD may be selectively loaded.

【0014】操作部4は、経路探索指示を与えるための
探索キー、経路誘導モードの設定に用いる経路誘導モー
ドキー、目的地入力キー、左右上下のカーソルキー、地
図の縮小/拡大キー、表示画面上のカーソル位置にある
項目の確定を行う設定キー等の各種操作キーを備えてお
り、キーの操作状態に応じた信号をナビゲーションコン
トローラ1に向けて送信する。なお、この操作部4は、
リモートコントロールユニットによって実現されてもよ
い。
The operation unit 4 includes a search key for giving a route search instruction, a route guidance mode key used for setting a route guidance mode, a destination input key, left / right / up / down cursor keys, a map reduction / enlargement key, and a display screen. Various operation keys such as a setting key for fixing an item at the upper cursor position are provided, and a signal corresponding to an operation state of the key is transmitted to the navigation controller 1. In addition, this operation part 4
It may be realized by a remote control unit.

【0015】GPS受信機5は、複数のGPS衛星から
送られてくる電波を受信して、3次元測位処理あるいは
2次元測位処理を行って車両の絶対位置および方位を計
算し(車両方位は現時点における自車位置と1サンプリ
ング時間ΔT前の自車位置とに基づいて計算する)、こ
れらを測位時刻とともに出力する。また、自律航法セン
サ6は、車両回転角度を相対方位として検出する振動ジ
ャイロ等の角度センサと、所定走行距離毎に1個のパル
スを出力する距離センサとを備えており、車両の相対位
置および方位を検出する。
The GPS receiver 5 receives radio waves transmitted from a plurality of GPS satellites and performs three-dimensional positioning processing or two-dimensional positioning processing to calculate the absolute position and direction of the vehicle (vehicle direction is the current Is calculated based on the own vehicle position and the own vehicle position one sampling time ΔT before), and these are output together with the positioning time. The autonomous navigation sensor 6 includes an angle sensor such as a vibrating gyroscope that detects the vehicle rotation angle as a relative direction, and a distance sensor that outputs one pulse every predetermined traveling distance. Detect orientation.

【0016】ビーコン送受信機7は、主に高速道路上に
設置された電波ビーコン送受信機との間で電波を介して
双方向通信を行うとともに、主に一般道路上に設置され
た光ビーコン送受信機との間で光を介して双方向通信を
行うことにより、道路交通情報センタ(以後、「VIC
Sセンタ」と称する)から送られてくるVICS交通情
報を受信する。FM多重放送受信機8は、一般のFM放
送に重畳された多重化データに含まれるVICS交通情
報を受信する。上述した電波ビーコン、光ビーコンとF
M多重放送とを比較すると、どちらもVICS交通情報
を受信できる点およびその内容に基本的な違いはない
が、FM多重放送による場合の方が広範囲の受信エリア
で交通情報を得ることができる。
The beacon transceiver 7 performs bidirectional communication mainly with radio wave beacon transceivers installed on highways via radio waves, and also mainly uses optical beacon transceivers installed on general roads. By performing two-way communication with the traffic information center (hereinafter referred to as “VIC
VICS traffic information sent from the “S center”. The FM multiplex broadcast receiver 8 receives VICS traffic information included in multiplexed data superimposed on general FM broadcast. The above-mentioned radio beacon, optical beacon and F
When compared with M multiplex broadcasting, there is no difference in that both can receive VICS traffic information and the content thereof, but in the case of FM multiplex broadcasting, traffic information can be obtained in a wider reception area.

【0017】ディスプレイ装置9は、ナビゲーションコ
ントローラ1から出力される描画データに基づいて、自
車周辺の地図情報を出発地マーク、目的地マーク等とと
もに表示したり、この地図上に誘導経路やVICS情報
を表示する。音声処理装置10は、ナビゲーション装置
に対して与える操作指示の候補(以後、これを「操作指
示候補」と称する)、すなわち、操作指示についての提
案をスピーカ12を介して音声により提示し、この提示
された操作指示候補に対して利用者が返答した音声を取
得して、肯定的な見解が得られた場合に、提示した操作
指示の内容をナビゲーションコントローラ1に出力す
る。音声処理装置10の詳細な構成については後述す
る。
The display device 9 displays map information around the own vehicle together with a departure point mark, a destination mark, etc., based on the drawing data output from the navigation controller 1, and displays a guidance route and VICS information on this map. Is displayed. The voice processing device 10 presents a candidate for an operation instruction to be given to the navigation device (hereinafter, this will be referred to as an “operation instruction candidate”), that is, a suggestion about the operation instruction via the speaker 12 by voice, and The voice obtained by the user in response to the given operation instruction candidate is acquired, and when a positive opinion is obtained, the content of the presented operation instruction is output to the navigation controller 1. The detailed configuration of the audio processing device 10 will be described later.

【0018】メモリ11は、各種の小型フラッシュ・メ
モリ・カード等のような着脱可能な情報記憶媒体により
実現されており、ナビゲーション装置に対して与えられ
る各種の操作指示とそれらの使用頻度との関係を表す所
定のデータベースを格納する。このように、着脱可能な
情報記憶媒体によってメモリ11を実現することによ
り、他のナビゲーション装置を使う場合等においても、
利用者は、自分のデータベースを用いた動作を行わせる
ことができるという利点がある。メモリ11に格納され
るデータベースの内容の詳細については後述する。
The memory 11 is realized by a detachable information storage medium such as various small flash memory cards and the like, and relates to various operation instructions given to the navigation apparatus and their use frequency. Is stored. As described above, by realizing the memory 11 by the detachable information storage medium, even when another navigation device is used,
There is an advantage that the user can perform an operation using his own database. Details of the contents of the database stored in the memory 11 will be described later.

【0019】スピーカ12は、音声処理装置10から出
力される音声信号に基づいて、操作指示の候補を提示す
るための音声を出力する。次に、ナビゲーションコント
ローラ1の詳細な構成について説明する。図1に示した
ナビゲーションコントローラ1は、ディスプレイ装置9
に所定の地図画像等を表示するためのデータバッファ2
0、地図読出制御部22、地図描画部24、VRAM2
6、画像合成部28と、自車位置の計算やマップマッチ
ング処理、経路探索処理、経路誘導処理を行うとともに
その結果を表示するための車両位置計算部30、経路探
索処理部32、誘導経路描画部34と、利用者に対する
各種の操作画面を表示したり、操作部4または音声処理
装置10からの操作指示を各部に伝えるための入力処理
部40、操作画面発生部42と、ビーコン送受信機7等
によって受信したVICS情報を表示するための受信デ
ータバッファ44、VICS情報描画部46とを備えて
いる。
The speaker 12 outputs a voice for presenting a candidate for an operation instruction based on a voice signal output from the voice processing device 10. Next, a detailed configuration of the navigation controller 1 will be described. The navigation controller 1 shown in FIG.
Buffer 2 for displaying a predetermined map image or the like on the
0, map read control unit 22, map drawing unit 24, VRAM2
6. The image synthesis unit 28, a vehicle position calculation unit 30, a route search processing unit 32, and a guidance route drawing for performing calculation of the vehicle position, map matching processing, route search processing, and route guidance processing and displaying the results. Unit 34, an input processing unit 40 for displaying various operation screens for the user, and transmitting operation instructions from the operation unit 4 or the voice processing device 10 to each unit, an operation screen generation unit 42, and a beacon transceiver 7 And the like, and a reception data buffer 44 for displaying VICS information received by the VICS information processing unit and the like, and a VICS information drawing unit 46.

【0020】データバッファ20は、ディスク読取装置
3によってDVD2から読み出された地図データを一時
的に格納するためのものである。地図読出制御部22
は、車両位置計算部30によって自車位置が算出される
と、この自車位置を含む所定範囲の地図データの読み出
し要求をディスク読取装置3に送り、地図表示に必要な
地図データをDVD2から読み出してデータバッファ2
0に格納する。
The data buffer 20 is for temporarily storing map data read from the DVD 2 by the disk reading device 3. Map reading control unit 22
When the vehicle position is calculated by the vehicle position calculation unit 30, a request to read map data in a predetermined range including the vehicle position is sent to the disk reading device 3, and the map data necessary for map display is read from the DVD 2. Data buffer 2
Store to 0.

【0021】地図描画部24は、データバッファ20に
格納された地図データに基づいて、自車位置周辺の地図
を表示するための地図描画データを作成するものであ
る。地図描画部24によって作成された地図描画データ
は、VRAM26に格納されて、画像合成部28によっ
て読み出される。画像合成部28は、VRAM26から
読み出した地図描画データや、操作画面発生部42等か
ら出力される描画データを重ねて画像合成を行う。画像
合成部28によって合成された画像は、ディスプレイ装
置9の画面上に表示される。
The map drawing section 24 creates map drawing data for displaying a map around the position of the vehicle based on the map data stored in the data buffer 20. The map drawing data created by the map drawing unit 24 is stored in the VRAM 26 and read out by the image combining unit 28. The image synthesizing unit 28 superimposes the map drawing data read from the VRAM 26 and the drawing data output from the operation screen generating unit 42 and performs image synthesis. The image combined by the image combining unit 28 is displayed on the screen of the display device 9.

【0022】車両位置計算部30は、GPS受信機5お
よび自律航法センサ6の各検出データに基づいて自車位
置を計算するとともに、計算した自車位置が地図データ
の道路上にない場合には、自車位置を修正するマップマ
ッチング処理を行う。経路探索処理部32は、あらかじ
め設定された目的地と出発地との間を所定の条件下で結
ぶ走行経路を探索する。例えば、距離最短、時間最短等
の各種の条件下で、コストが最小となる誘導経路が設定
される。経路探索の代表的な手法としてはダイクストラ
法や横型探索法が知られている。誘導経路描画部34
は、経路探索処理部32によって設定された誘導経路を
地図画像上に重ねて描画する。
The vehicle position calculation unit 30 calculates the position of the vehicle based on the data detected by the GPS receiver 5 and the autonomous navigation sensor 6, and when the calculated position is not on the road in the map data. Then, a map matching process for correcting the own vehicle position is performed. The route search processing unit 32 searches for a traveling route that connects a preset destination and departure place under predetermined conditions. For example, under various conditions such as the shortest distance and the shortest time, a guidance route with the lowest cost is set. As a typical route search method, the Dijkstra method and the horizontal search method are known. Guide route drawing unit 34
Draws the guidance route set by the route search processing unit 32 on the map image.

【0023】次に、音声処理装置10の詳細な構成につ
いて説明する。図2は、音声処理装置10の構成を示す
図である。同図に示すように、音声処理装置10は、マ
イクロホン60、音声認識ボタン62、音声認識部6
4、音声認識辞書格納部66、提案提示部68、操作内
容設定部70、学習処理部72を含んで構成されてい
る。
Next, a detailed configuration of the audio processing apparatus 10 will be described. FIG. 2 is a diagram illustrating a configuration of the audio processing device 10. As shown in the figure, the voice processing device 10 includes a microphone 60, a voice recognition button 62, a voice recognition unit 6
4, a speech recognition dictionary storage unit 66, a suggestion presentation unit 68, an operation content setting unit 70, and a learning processing unit 72.

【0024】マイクロホン60は、利用者が発声した音
声を電気信号に変換する。音声認識ボタン62は、利用
者が音声によりナビゲーション装置に対する各種操作指
示を入力する際に押下する押しボタンスイッチであり、
この音声認識ボタン62が押下されることにより、音声
処理装置10による操作指示候補の提示動作が開始す
る。
The microphone 60 converts the voice uttered by the user into an electric signal. The voice recognition button 62 is a push button switch that is pressed when the user inputs various operation instructions to the navigation device by voice,
When the voice recognition button 62 is pressed, the operation of presenting the operation instruction candidate by the voice processing device 10 starts.

【0025】音声認識部64は、マイクロホン60から
出力される音声信号を解析して所定の音声認識処理を行
うことにより、利用者が発声した音声に対応する文字列
を特定し、この文字列を認識結果として操作内容設定部
70等に出力する。音声認識辞書格納部66は、標準的
な音声に対応した信号波形を音声認識用の辞書として格
納している。
The voice recognition unit 64 analyzes a voice signal output from the microphone 60 and performs a predetermined voice recognition process to specify a character string corresponding to the voice uttered by the user, and The recognition result is output to the operation content setting unit 70 and the like. The voice recognition dictionary storage unit 66 stores a signal waveform corresponding to a standard voice as a voice recognition dictionary.

【0026】提案提示部68は、音声認識ボタン62が
押下されると、利用者に対して、操作指示候補(すなわ
ち、操作指示についての提案)を提示する。具体的に
は、本実施形態では、操作指示候補は、複数のコマンド
と各コマンド毎に設定されたジャンルとの組み合わせに
より決定されるようになっており、提案提示部68は、
いずれかのコマンドとジャンルを選択し、対応する音声
信号をスピーカ12に出力することによって操作指示候
補の提示を行う。例えば、コマンドとして「探す」が選
択され、ジャンルとして「コンビニエンスストア」(以
下、「コンビニ」と称する)が選択された場合であれ
ば、提案提示部68は、「コンビニ探すの?」といった
音声をスピーカ12から出力する。コマンドおよびジャ
ンルの詳細については後述する。
When the voice recognition button 62 is pressed, the suggestion presentation section 68 presents an operation instruction candidate (that is, a proposal for an operation instruction) to the user. Specifically, in the present embodiment, the operation instruction candidate is determined by a combination of a plurality of commands and a genre set for each command.
An operation instruction candidate is presented by selecting any command and genre and outputting a corresponding audio signal to the speaker 12. For example, if “search” is selected as a command and “convenience store” (hereinafter referred to as “convenience store”) is selected as a genre, the suggestion presentation unit 68 outputs a voice such as “search for a convenience store?” Output from the speaker 12. Details of the command and the genre will be described later.

【0027】操作内容設定部70は、提案提示部68に
よる操作指示候補の提示に対して、利用者から肯定的な
見解が得られた場合には、その時点で提示されている操
作指示候補を操作内容として設定し、ナビゲーションコ
ントローラ1に出力する。具体的には、本実施形態で
は、操作指示候補に対する見解は、簡単な言葉、例え
ば、肯定的な見解を示す場合であれば、「うん」や「は
い」等、否定的な見解を示す場合であれば「ちがう」や
「いいえ」等で入力できることが利用者に対してあらか
じめ通知されている。したがって、操作内容設定部70
は、操作指示候補が提示され、これに応じて利用者によ
り発声された音声に対応する文字列が音声認識部64か
ら出力されると、この文字列が上述した「うん」等の肯
定的な言葉であるか、あるいは「ちがう」等の否定的な
言葉であるかを調べることにより、利用者の見解を判定
する。
When a positive opinion is obtained from the user with respect to the presentation of the operation instruction candidate by the suggestion presentation unit 68, the operation content setting unit 70 deletes the operation instruction candidate presented at that time. It is set as the operation content and output to the navigation controller 1. Specifically, in the present embodiment, the opinion on the operation instruction candidate is a simple word, for example, if it shows a positive opinion, if it shows a negative opinion, such as "Yes" or "Yes" If so, the user is informed in advance that the user can input “No” or “No”. Therefore, the operation content setting unit 70
When an operation instruction candidate is presented and a character string corresponding to a voice uttered by the user is output from the voice recognition unit 64 in response to the operation instruction candidate, the character string The user's opinion is determined by examining whether the word is a word or a negative word such as “no”.

【0028】学習処理部72は、ナビゲーションコント
ローラ1内の入力処理部40に入力される操作指示の内
容(操作内容)に基づいて利用者の嗜好、すなわち、各
操作内容の使用頻度を調べ、メモリ11に格納されたデ
ータベースの内容を更新する所定の学習処理を行う。学
習処理部70の動作の詳細については後述する。
The learning processing unit 72 checks the user's preference, that is, the frequency of use of each operation content, based on the content (operation content) of the operation instruction input to the input processing unit 40 in the navigation controller 1, and A predetermined learning process for updating the contents of the database stored in 11 is performed. Details of the operation of the learning processing unit 70 will be described later.

【0029】上述した提案提示部68が提案提示手段
に、マイクロホン60、音声認識部64、音声認識辞書
格納部66が音声認識処理手段に、操作内容設定部70
が操作内容設定手段にそれぞれ対応している。また、学
習処理部72が学習処理手段に、ナビゲーションコント
ローラ1がナビゲーション処理手段にそれぞれ対応して
いる。
The above-mentioned suggestion presenting section 68 serves as a suggestion presenting means, the microphone 60, the voice recognition section 64, and the voice recognition dictionary storage section 66 serve as a voice recognition processing means, and the operation content setting section 70.
Respectively correspond to the operation content setting means. The learning processing unit 72 corresponds to the learning processing unit, and the navigation controller 1 corresponds to the navigation processing unit.

【0030】本実施形態のナビゲーション装置はこのよ
うな構成を有しており、次に、上述したコマンドおよび
ジャンルの詳細とこれらに関して学習処理部72により
行われる学習処理の内容について説明する。上述したよ
うに、本実施形態では、操作指示候補を提示する際に
は、あらかじめ用意された複数のコマンドと、各コマン
ド毎に用意されたジャンルとを組み合わせることによ
り、操作指示候補が設定される。
The navigation device according to the present embodiment has such a configuration. Next, the details of the above-described commands and genres and the contents of the learning processing performed by the learning processing section 72 regarding these will be described. As described above, in the present embodiment, when presenting an operation instruction candidate, the operation instruction candidate is set by combining a plurality of commands prepared in advance and a genre prepared for each command. .

【0031】図3は、コマンドの一例を示す図である。
同図に示すように、本実施形態では、「探す」、「情
報」、「周辺」という3つのコマンドを用意している。
具体的には、コマンド「探す」は、自車位置周辺にある
コンビニ等の各種施設を探す際に用いられ、コマンド
「情報」は、VICSセンタから送られてくるVICS
交通情報を表示させるために用いられ、コマンド「周
辺」は、現在地等の周辺を表示させるために用いられ
る。
FIG. 3 is a diagram showing an example of the command.
As shown in the figure, in the present embodiment, three commands “search”, “information”, and “periphery” are prepared.
Specifically, the command “search” is used when searching for various facilities such as a convenience store near the own vehicle position, and the command “information” is the VICS sent from the VICS center.
The command is used to display traffic information, and the command "around" is used to display the periphery such as the current location.

【0032】また、各コマンドには、そのコマンドが使
用される頻度に対応した選択確率が付与されている。図
3に示す例では、3つのコマンドに付与された選択確率
は、「探す」が70%、「情報」が20%、「周辺」が
10%となっている。この選択確率は、初期状態では、
例えば、利用者が適当な値に設定し、あるいは初期値と
して適当な値が予め設定されている。
Each command is given a selection probability corresponding to the frequency at which the command is used. In the example shown in FIG. 3, the selection probabilities given to the three commands are “search” 70%, “information” 20%, and “surroundings” 10%. This selection probability is initially
For example, the user sets an appropriate value, or an appropriate value is set in advance as an initial value.

【0033】そして、学習処理部72は、ナビゲーショ
ンコントローラ1内の入力処理部40に対して入力され
た操作内容を調べ、図3に示した各コマンドが用いられ
た場合には、各コマンドに対応する選択確率を更新し、
各コマンドと選択確率の関係をメモリ11に格納する。
Then, the learning processing section 72 checks the contents of the operation input to the input processing section 40 in the navigation controller 1, and when each command shown in FIG. Update the selection probability to
The relationship between each command and the selection probability is stored in the memory 11.

【0034】図4は、各コマンド毎に設定されたジャン
ルの一例を示す図である。同図に示すように、本実施形
態では、コマンド「探す」に対応するジャンルとして、
コンビニ、銀行、レストラン、……等の各種施設が設定
されている。同様に、コマンド「情報」に対応するジャ
ンルとしては、文字、簡易図形、渋滞情報が設定されて
いる。ここで、「文字」とは、VICS情報のレベル1
「文字表示型」に対応しており、このジャンルが選択さ
れた場合には、30文字程度の文字により道路交通情報
が表示される。同様に、「簡易図形」とは、VICS情
報のレベル2「簡易図形表示型」に対応しており、この
ジャンルが選択された場合には、簡単な道路図形により
道路交通情報が表示される。同様に、「渋滞情報」と
は、VICS情報のレベル3「地図表示型」に対応して
おり、このジャンルが選択された場合には、地図画像の
上に渋滞情報等が重ね書きして表示される。
FIG. 4 is a diagram showing an example of a genre set for each command. As shown in the figure, in the present embodiment, the genre corresponding to the command “search” is
Various facilities such as convenience stores, banks, restaurants, and so on are set. Similarly, as the genre corresponding to the command “information”, characters, simple figures, and traffic jam information are set. Here, "character" is level 1 of VICS information.
It corresponds to the "character display type", and when this genre is selected, the road traffic information is displayed by about 30 characters. Similarly, "simple figure" corresponds to level 2 "simple figure display type" of VICS information, and when this genre is selected, road traffic information is displayed by a simple road figure. Similarly, "congestion information" corresponds to level 3 "map display type" of VICS information, and when this genre is selected, congestion information and the like are overwritten and displayed on a map image. Is done.

【0035】また、コマンド「周辺」に対応するジャン
ルとしては、現在地と目的地が設定されている。現在地
は、自車の現在位置に対応し、目的地は、経路探索が行
われて誘導経路が設定されている場合における目的地に
対応している。また、図4に示すように、各コマンド毎
に設定されているジャンルについても、そのジャンルが
使用される頻度に対応した選択確率が付与されている。
この選択確率は、コマンド「探す」に対応するジャン
ル、コマンド「情報」に対応するジャンル、コマンド
「周辺」に対応するジャンルのそれぞれ毎に独立して付
与されている。例えば、コマンド「探す」であれば、対
応するジャンルであるコンビニ、銀行、レストラン、…
…等の各々に付与された選択確率の値の合計が100%
となるように、選択確率が設定される。
As the genre corresponding to the command "around", a current location and a destination are set. The current location corresponds to the current position of the vehicle, and the destination corresponds to the destination when a route search is performed and a guidance route is set. Further, as shown in FIG. 4, a genre set for each command is also provided with a selection probability corresponding to the frequency at which the genre is used.
The selection probability is independently given for each of the genre corresponding to the command “search”, the genre corresponding to the command “information”, and the genre corresponding to the command “peripheral”. For example, if the command is "Search", the corresponding genres are convenience stores, banks, restaurants, ...
The sum of the values of the selection probabilities given to each of ... etc. is 100%
The selection probability is set so that

【0036】これらの各ジャンルに対して付与される選
択確率についても、初期状態では、例えば、利用者が適
当な値に設定し、あるいは初期値として適当な値が予め
設定されている。そして、学習処理部72は、ナビゲー
ションコントローラ1内の入力処理部40に対して入力
された操作内容を調べ、図4に示した各ジャンルが用い
られた場合には、各ジャンルに対応する選択確率を更新
し、各ジャンルと選択確率の関係をメモリ11に格納す
る。
In the initial state, for example, the user sets an appropriate value for the selection probability given to each of these genres, or an appropriate value is set in advance as an initial value. Then, the learning processing unit 72 checks the operation content input to the input processing unit 40 in the navigation controller 1, and when each genre shown in FIG. 4 is used, the selection probability corresponding to each genre is determined. Is updated, and the relationship between each genre and the selection probability is stored in the memory 11.

【0037】このように、本実施形態では、上述した各
コマンドと選択確率の関係、および各ジャンルと選択確
率の関係のそれぞれが予めデータベースとしてメモリ1
1に格納されており、選択確率の値が学習処理部72に
よって更新される。次に、学習処理部72の基本的な動
作手順について流れ図により説明する。
As described above, in the present embodiment, the relationship between each command and the selection probability and the relationship between each genre and the selection probability are stored in the memory 1 as a database in advance.
1 and the value of the selection probability is updated by the learning processing unit 72. Next, a basic operation procedure of the learning processing unit 72 will be described with reference to a flowchart.

【0038】図5は、学習処理部72の動作手順を示す
流れ図である。学習処理部72は、ナビゲーションコン
トローラ1内の入力処理部40に対して、操作部4ある
いは音声処理装置10から各種の操作指示が入力された
か否かを判定し(ステップ100)、操作指示が入力さ
れた場合には、その操作内容が上述した図3に示した所
定のコマンドに対応したものであるか否かを判定する
(ステップ101)。操作指示の入力がない場合や、操
作内容が所定のコマンドに対応していない場合には、ス
テップ100に戻り、以降の処理が繰り返される。
FIG. 5 is a flowchart showing the operation procedure of the learning processing section 72. The learning processing unit 72 determines whether or not various operation instructions have been input from the operation unit 4 or the voice processing device 10 to the input processing unit 40 in the navigation controller 1 (step 100). If the operation has been performed, it is determined whether or not the operation content corresponds to the predetermined command shown in FIG. 3 described above (step 101). If there is no operation instruction input, or if the operation content does not correspond to the predetermined command, the process returns to step 100 and the subsequent processing is repeated.

【0039】また、操作内容が所定のコマンド、すなわ
ち、上述した「探す」、「情報」、「周辺」のいずれか
に対応したものである場合には、ステップ101におい
て肯定判断がなされ、学習処理部72は、操作内容を構
成しているコマンドとジャンルを特定する(ステップ1
02)。例えば、「自車位置周辺に存在するコンビニを
探せ」という操作内容がナビゲーションコントローラ1
に対して入力された場合であれば、コマンドとして「探
す」が特定され、ジャンルとして「コンビニ」が特定さ
れる。
When the operation content corresponds to a predetermined command, that is, any one of the above-mentioned "search", "information", and "periphery", an affirmative determination is made in step 101, and the learning process is performed. The unit 72 specifies a command and a genre constituting the operation content (step 1).
02). For example, the operation content of “Find a convenience store existing around the position of the own vehicle” is the navigation controller 1.
Is input, "search" is specified as the command, and "convenience store" is specified as the genre.

【0040】次に、学習処理部72は、メモリ11に格
納されたデータベースの内容を更新する。具体的には、
ステップ102で特定したコマンドに付与される選択確
率の値が相対的に高くなるように、各コマンドに付与さ
れた選択確率の値を更新する(ステップ103)。ま
た、学習処理部72は、ステップ102で特定したジャ
ンルに付与される選択確率の値が相対的に高くなるよう
に各ジャンルに付与された選択確率の値を更新する(ス
テップ104)。その後、学習処理部72は、ステップ
100に戻り、以降の処理を繰り返す。
Next, the learning processing section 72 updates the contents of the database stored in the memory 11. In particular,
The value of the selection probability assigned to each command is updated so that the value of the selection probability assigned to the command specified in step 102 becomes relatively high (step 103). Further, the learning processing unit 72 updates the value of the selection probability given to each genre so that the value of the selection probability given to the genre specified in step 102 becomes relatively high (step 104). After that, the learning processing unit 72 returns to Step 100 and repeats the subsequent processing.

【0041】ところで、本実施形態では、コマンド「探
す」に対応するジャンルについては、そのジャンルの使
用頻度に対応して選択確率が更新されるほかに、利用者
が各ジャンルに該当する施設に立ち寄った場合にも、そ
の選択確率が更新される。このような処理を行うことに
より、例えば、コンビニを利用する頻度の高い利用者に
対しては、コマンド「探す」が選択された場合に対応す
るジャンルとして「コンビニ」が選択される確率を高め
ることができ、利用者の嗜好をよりよく反映することが
できるようになる。次に、利用者が各種の施設に立ち寄
った場合に、学習処理部72において行われる選択確率
の更新動作について説明する。
In the present embodiment, for the genre corresponding to the command "search", the selection probability is updated in accordance with the frequency of use of the genre, and the user stops at a facility corresponding to each genre. Also, the selection probability is updated. By performing such processing, for example, for a user who frequently uses a convenience store, the probability that “convenience store” is selected as the genre corresponding to the case where the command “search” is selected is increased. And the user's preferences can be better reflected. Next, an operation of updating the selection probability performed in the learning processing unit 72 when the user stops at various facilities will be described.

【0042】図6は、各種の施設に立ち寄った場合の学
習処理部72の動作手順を示す流れ図である。学習処理
部72は、ナビゲーションコントローラ1内のデータバ
ッファ20から自車位置周辺の地図データを取得し、車
両位置計算部30から自車位置情報を取得し、取得した
地図データおよび自車位置情報に基づいて、自車位置か
ら所定距離以内(例えば、50m以内)に各種の施設が
あるか否かを判定する(ステップ200)。
FIG. 6 is a flowchart showing the operation procedure of the learning processing section 72 when the user stops at various facilities. The learning processing unit 72 acquires map data around the own vehicle position from the data buffer 20 in the navigation controller 1, acquires own vehicle position information from the vehicle position calculation unit 30, and adds the acquired map data and own vehicle position information to the acquired map data. Based on this, it is determined whether there are various facilities within a predetermined distance (for example, within 50 m) from the position of the vehicle (step 200).

【0043】例えば、ジャンル「コンビニ」に属する施
設やジャンル「銀行」に属する施設等が自車位置から所
定距離以内に存在する場合には、ステップ200におい
て肯定判断がなされ、次に、学習処理部72は、所定時
間(例えば、30秒間)が経過したか否かを判定する
(ステップ201)。このように、本実施形態では、自
車位置から所定距離以内に各種の施設がある状態で所定
時間が経過した場合に、利用者がこの施設に立ち寄った
ものと判断している。所定時間が経過するまでの間は、
ステップ201において否定判断がなされ、ステップ2
00以降の処理が繰り返される。
For example, if facilities belonging to the genre "convenience store" or facilities belonging to the genre "bank" exist within a predetermined distance from the position of the own vehicle, an affirmative judgment is made in step 200, and then the learning processing section 72 determines whether a predetermined time (for example, 30 seconds) has elapsed (step 201). As described above, in the present embodiment, it is determined that the user has stopped at this facility when a predetermined time has elapsed while various facilities are present within a predetermined distance from the vehicle position. Until the predetermined time elapses,
A negative determination is made in step 201 and step 2
The processing after 00 is repeated.

【0044】所定時間が経過した場合には、ステップ2
01において肯定判断がなされ、学習処理部72は、立
ち寄ったと判定した施設について、その施設が属するジ
ャンルの選択確率を更新する所定の学習処理を行うか否
かを利用者に問う音声を出力する(ステップ202)。
具体的には、例えばジャンル「コンビニ」に属する施設
が自車位置から所定距離以内に存在する場合であれば、
学習処理部72は、提案提示部68に依頼することによ
り、「コンビニに行くの?」等の音声をスピーカ12か
ら出力する。
If the predetermined time has elapsed, step 2
At 01, the learning processing unit 72 outputs a voice asking the user whether or not to perform a predetermined learning process for updating the selection probability of the genre to which the facility belongs, for the facility determined to have stopped ( Step 202).
Specifically, for example, if a facility belonging to the genre “convenience store” exists within a predetermined distance from the own vehicle position,
By requesting the suggestion presentation unit 68, the learning processing unit 72 outputs a voice such as “Where do you go to a convenience store?” From the speaker 12.

【0045】次に、学習処理部72は、利用者から与え
られる指示に基づいて、所定の学習処理を行うか否かを
判定する(ステップ203)。具体的には、本実施形態
では、利用者が音声認識ボタン62をダブルクリック
(所定時間内に連続して2回ボタンを押下する動作)し
た場合に、学習処理部72は、所定の学習処理を行う。
Next, the learning processing section 72 determines whether or not to perform a predetermined learning process based on an instruction given by the user (step 203). Specifically, in the present embodiment, when the user double-clicks on the voice recognition button 62 (the operation of pressing the button twice consecutively within a predetermined time), the learning processing unit 72 performs the predetermined learning processing. I do.

【0046】利用者から学習処理を行うよう指示がなさ
れた場合には、ステップ203において肯定判断がなさ
れ、学習処理部72は、自車位置から所定距離以内に存
在する施設の属するジャンルに対応する選択確率が相対
的に高くなるように、各ジャンルの選択確率を更新する
(ステップ204)。その後、上述したステップ200
に戻り、以降の処理を繰り返す。
If the user instructs to perform the learning process, an affirmative determination is made in step 203, and the learning processing unit 72 corresponds to the genre to which the facility existing within a predetermined distance from the own vehicle position belongs. The selection probability of each genre is updated so that the selection probability becomes relatively high (step 204). Then, the above-described step 200
And the subsequent processing is repeated.

【0047】また、利用者から学習処理を行うよう指示
がなされない場合には、ステップ203において否定判
断がなされ、学習処理部72は、所定時間(例えば、5
秒間)が経過したか否かを判定する(ステップ20
5)。そして、学習処理部72は、所定時間が経過する
までの間は、ステップ203に戻り、以降の処理を繰り
返す。また、所定時間が経過した場合には、学習処理部
72は、学習処理を行うことなく上述したステップ20
0に戻り、以降の処理を繰り返す。
If the user does not give an instruction to perform the learning process, a negative determination is made in step 203, and the learning processing unit 72 sets the learning processing unit 72 to a predetermined time (for example, 5 minutes).
Is determined (step 20).
5). Then, the learning processing unit 72 returns to Step 203 until the predetermined time has elapsed, and repeats the subsequent processing. If the predetermined time has elapsed, the learning processing unit 72 performs the above-described step 20 without performing the learning process.
After returning to 0, the subsequent processing is repeated.

【0048】次に、音声処理装置10が操作指示候補の
提示を行い、利用者から与えられる見解に応じて、操作
内容を設定してナビゲーションコントローラ1に出力す
る際の動作手順について詳細に説明する。図7は、音声
処理装置10の動作手順を示す流れ図である。提案提示
部68は、音声認識ボタン62が押下されたか否かを判
定し(ステップ300)、押下された場合には、メモリ
11からデータベースを読み出す(ステップ301)。
次に、提案提示部68は、データベースの内容に基づい
て、操作指示候補を設定し、設定した操作指示候補をス
ピーカ12を介して利用者に対して提示する(ステップ
302)。
Next, a detailed description will be given of the operation procedure when the voice processing apparatus 10 presents operation instruction candidates, sets operation contents according to the opinion given by the user, and outputs the operation contents to the navigation controller 1. . FIG. 7 is a flowchart illustrating an operation procedure of the audio processing device 10. The suggestion presentation unit 68 determines whether or not the voice recognition button 62 has been pressed (step 300), and when pressed, reads the database from the memory 11 (step 301).
Next, the suggestion presentation unit 68 sets an operation instruction candidate based on the contents of the database, and presents the set operation instruction candidate to the user via the speaker 12 (step 302).

【0049】具体的には、本実施形態では、操作指示候
補の提示を行う回数が予め設定されており、例えば、3
回と設定されているとする。この場合に、提案提示部6
8は、選択確率を考慮して各コマンドが選択される回数
を設定する。選択確率を考慮して各コマンドが選択され
る回数を設定する方法については、種々の方法が考えら
れる。例えば、本実施形態では、各コマンドに付与され
た選択確率を小数になおした値に対して、操作指示候補
の提案を行う回数の「3」をかけて得られた結果が、
0.5未満の場合には0回、0.5以上で1.5未満の
場合には1回、1.5以上で2.5未満の場合には2
回、2.5以上の場合には3回、という規則により、各
コマンドが選択される回数が設定される。この規則によ
れば、上述した図3に示した例では、コマンド「探す」
に対応する選択確率は70%なので、0.7×3=2.
1となり、コマンド「探す」は、2回選択されることと
なる。同様に、コマンド「情報」に対応する選択確率は
20%なので、0.2×3=0.6となり、コマンド
「情報」は1回選択されることとなる。また、コマンド
「周辺」に対応する選択確率は10%なので、0.1×
3=0.3となり、コマンド「周辺」は0回選択され
る、すなわち選択されないこととなる。
Specifically, in the present embodiment, the number of times the operation instruction candidates are presented is set in advance.
Assume that it is set to times. In this case, the proposal presentation unit 6
8 sets the number of times each command is selected in consideration of the selection probability. Various methods are conceivable for setting the number of times each command is selected in consideration of the selection probability. For example, in the present embodiment, a result obtained by multiplying the value obtained by converting the selection probability given to each command to a decimal number by “3”, which is the number of times the operation instruction candidate is proposed, is given as
0 for less than 0.5, 1 for 0.5 or more and less than 1.5, 2 for 1.5 or more and less than 2.5
The number of times each command is selected is set according to the rule that the number of times is 2.5 or more and 3 times in the case of 2.5 or more. According to this rule, in the example shown in FIG.
Is 70%, so that 0.7 × 3 = 2.
As a result, the command “search” is selected twice. Similarly, since the selection probability corresponding to the command “information” is 20%, 0.2 × 3 = 0.6, and the command “information” is selected once. Since the selection probability corresponding to the command “peripheral” is 10%, 0.1 ×
3 = 0.3, and the command “peripheral” is selected 0 times, that is, not selected.

【0050】このようにして、各コマンドが選択される
回数が設定されると、回数の多いものから優先的に選択
され、選択されたコマンドに対応するジャンルの中か
ら、選択確率の高いものが選択されることにより、操作
指示候補の設定がなされる。具体的には、上述した例で
は、コマンドは、優先順に(1)「探す」、(2)「探
す」、(3)「情報」の順番で選択されることとなる。
そして、1番目の「探す」が選択されると、対応するジ
ャンルが選択される。上述した図4に示した例では、
「探す」に対応するジャンルの中で最も選択確率の高い
ジャンルである「コンビニ」が選択される。この結果、
「コンビニを探す」という操作指示候補が設定される。
同様に、2番目の「探す」が選択されると、「探す」に
対応するジャンルの中で2番目に選択確率の高いジャン
ルである「銀行」が選択され、この結果、「銀行を探
す」という操作指示候補が設定される。また、3番目の
「情報」が選択されると、「情報」に対応するジャンル
の中で最も選択確率の高いジャンルである「渋滞情報」
が選択され、この結果、「渋滞情報を見る」という操作
指示候補が設定される。
When the number of times each command is selected is set in this way, the command with the highest selection probability is selected from among the genres corresponding to the selected command with priority given to the command with the highest number of times. When selected, the setting of the operation instruction candidate is performed. Specifically, in the example described above, the commands are selected in order of priority (1) “search”, (2) “search”, and (3) “information”.
When the first "search" is selected, the corresponding genre is selected. In the example shown in FIG. 4 described above,
“Convenience store” which is the genre with the highest selection probability among the genres corresponding to “search” is selected. As a result,
An operation instruction candidate “search for a convenience store” is set.
Similarly, when the second “search” is selected, “bank” which is the genre with the second highest selection probability among the genres corresponding to “search” is selected. As a result, “search for a bank” is selected. Is set. When the third "information" is selected, the "congestion information" which is the genre having the highest selection probability among the genres corresponding to the "information" is selected.
Is selected, and as a result, an operation instruction candidate “view traffic jam information” is set.

【0051】なお、上述した各コマンドが選択される回
数を設定するアルゴリズムでは、3つのコマンドのうち
でいずれか2つのコマンドに対応する選択確率がそれぞ
れ50%であった場合には、いずれのコマンドについて
も選択される回数が2回となってしまい、予め設定され
た操作指示候補の提示回数の3回を超えてしまうことが
あるが、このような場合に対応するためには、各コマン
ドに対して固定の優先順位を予め設定しておけばよい。
具体的には、例えば、各コマンドに対して、(1)「探
す」、(2)「情報」、(3)「周辺」、という固有の
優先順位を予め設定しておけばよい。これにより、例え
ば、2つのコマンド「探す」および「情報」が選択され
る回数がそれぞれ2回となってしまった場合でも、コマ
ンド「探す」が優先的に2回選択され、コマンド「情
報」は1回だけ選択される。
In the above-mentioned algorithm for setting the number of times each command is selected, if the selection probability corresponding to any two of the three commands is 50%, any one of the commands is selected. Is also selected twice, which may exceed the preset number of times of presenting the operation instruction candidate three times. In order to cope with such a case, each command must be On the other hand, a fixed priority may be set in advance.
Specifically, for example, a unique priority order of (1) “search”, (2) “information”, and (3) “periphery” may be set in advance for each command. As a result, for example, even when the number of times that the two commands “search” and “information” are selected is twice, the command “search” is preferentially selected twice, and the command “information” is Selected only once.

【0052】上述したような手順により、操作指示候補
の提示がなされると、音声認識部64は、マイクロホン
60に対して利用者の音声が入力されたか否かを判定し
(ステップ303)、音声入力がなされた場合には、こ
の音声に対応する文字列を特定する所定の音声認識処理
を行う(ステップ304)。
When the operation instruction candidates are presented according to the procedure described above, the voice recognition unit 64 determines whether or not the user's voice has been input to the microphone 60 (step 303). When an input is made, a predetermined voice recognition process for specifying a character string corresponding to the voice is performed (step 304).

【0053】次に、操作内容設定部70は、認識結果と
して得られた文字列を音声認識部64から取得し、この
文字列に基づいて、利用者から肯定的な見解が与えられ
たか否かを判定する(ステップ305)。利用者の見解
が肯定的でない場合には、ステップ305において否定
判断がなされ、その旨が操作内容設定部70から提案提
示部68に対して通知される。通知を受けた提案提示部
68は、操作指示候補の提示を行った回数が所定回数を
超えたか否かを判定する(ステップ306)。そして、
提示回数が所定回数以下である場合には、提案提示部6
8は、次の操作指示候補を設定し(ステップ307)、
上述したステップ302に戻り、操作指示候補を提示す
る動作以降の処理を繰り返す。
Next, the operation content setting unit 70 acquires the character string obtained as the recognition result from the voice recognition unit 64, and determines whether or not a positive opinion has been given by the user based on the character string. Is determined (step 305). If the user's opinion is not positive, a negative determination is made in step 305, and the operation content setting unit 70 notifies the suggestion presentation unit 68 of that. The proposal presenting unit 68 that has received the notification determines whether the number of times the operation instruction candidates have been presented exceeds a predetermined number (step 306). And
If the number of presentations is equal to or less than the predetermined number, the suggestion presentation unit 6
8 sets the next operation instruction candidate (step 307),
Returning to step 302 described above, the processing after the operation of presenting the operation instruction candidate is repeated.

【0054】また、利用者の見解が肯定的である場合に
は、上述したステップ305において肯定判断がなさ
れ、操作内容設定部70は、提示した操作指示候補に対
応する操作内容を設定し、ナビゲーションコントローラ
1に向けて出力する(ステップ308)。
When the opinion of the user is positive, an affirmative determination is made in step 305 described above, and the operation content setting unit 70 sets the operation content corresponding to the presented operation instruction candidate, and performs navigation. Output to controller 1 (step 308).

【0055】また、学習処理部72は、操作内容設定部
70により設定されて出力された操作内容に応じて、上
述した手順により所定の学習処理を行い、メモリ11に
格納されたデータベースを更新する(ステップ30
9)。その後、ステップ300に戻り、音声認識ボタン
62が押下されたか否かの判定以降の処理が繰り返され
る。
The learning processing unit 72 performs a predetermined learning process according to the above-described procedure according to the operation content set and output by the operation content setting unit 70, and updates the database stored in the memory 11. (Step 30
9). Thereafter, the process returns to step 300, and the processing after the determination as to whether or not the voice recognition button 62 has been pressed is repeated.

【0056】また、提示回数が所定回数を超えた場合に
は、上述したステップ306において肯定判断がなさ
れ、音声入力装置10は、従来の対話形式による操作指
示の入力動作に移行する(ステップ310)。具体的に
は、提案提示部68により、例えば、「何かしようか
?」等の音声が出力され、その後、音声処理装置10
は、利用者から音声による操作指示が与えられるまで待
機状態となる。そして、利用者により所定のコマンド等
が発声されてマイクロホン60により集音されると、音
声認識部64によって音声認識処理が行われて対応する
文字列が特定され、特定された文字列に応じた操作内容
が操作内容設定部70によって設定されてナビゲーショ
ンコントローラ1に出力される。
If the number of presentations exceeds the predetermined number, an affirmative determination is made in step 306 described above, and the voice input device 10 shifts to a conventional interactive operation input operation of an operation instruction (step 310). . Specifically, for example, the proposal presenting unit 68
? "And the like, and then the sound processing device 10
Is in a standby state until a user gives an operation instruction by voice. Then, when a predetermined command or the like is uttered by the user and collected by the microphone 60, a voice recognition process is performed by the voice recognition unit 64 to specify a corresponding character string, and the character string corresponding to the specified character string is determined. The operation content is set by the operation content setting unit 70 and output to the navigation controller 1.

【0057】次に、本実施形態のナビゲーション装置に
含まれる音声処理装置10と利用者との間で行われる対
話の一例を説明する。なお、対話例の説明では、利用者
を”U”(User)で示し、音声処理装置10を”A”
(Agent) で示す。(具体例1) A:「コンビニ探すの?」 U:「うん」 この例は、利用者による使用頻度が最も高い「最寄りの
コンビニを探す」という操作指示が操作指示候補として
音声処理装置10により提示され、この提示に対して、
利用者から、肯定的な見解が得られた場合を示してい
る。このように、使用頻度の高さに応じて選択された操
作指示候補が音声処理装置10から提示されるので、こ
の操作指示を与えたい場合に、利用者は、音声処理装置
10からの問いかけ(提示)に対して「うん」といった
単純な言葉を発声するだけで簡単にナビゲーション装置
に対して操作指示を与えることができる。
Next, an example of a dialog performed between the user and the voice processing device 10 included in the navigation device of the present embodiment will be described. In the description of the dialogue example, the user is indicated by “U” (User), and the voice processing device 10 is indicated by “A”.
(Agent). (Specific Example 1) A: “Will you find a convenience store?” U: “Yeah” In this example, the operation instruction “Find the nearest convenience store” that is used most frequently by the user is used as an operation instruction candidate by the voice processing device 10. Presented, and for this presentation,
This shows a case where a positive opinion is obtained from the user. As described above, since the operation instruction candidate selected according to the frequency of use is presented from the voice processing device 10, when the user wants to give the operation instruction, the user can make an inquiry from the voice processing device 10 ( It is possible to easily give an operation instruction to the navigation device simply by uttering a simple word such as “Yes” in response to “presentation”.

【0058】(具体例2) A:「コンビニ探すの?」 U:「ちがう」 A:「銀行探すの?」 U:「うん」 この例は、利用者による使用頻度が最も高い「最寄りの
コンビニを探す」とう操作指示が1番目の操作指示候補
として提示されたが、利用者から否定的な見解が得られ
た場合を示している。そして、次に、使用頻度が2番目
に高いものまで範囲を広げた操作指示候補が提示され、
これに対して、利用者により肯定的な見解が得られてい
る。このように、操作指示候補の範囲を段階的に広げて
いくことにより、利用者の意図に沿った操作指示候補を
提示できる可能性を高めることができる。
(Specific Example 2) A: “Are you looking for a convenience store?” U: “No,” A: “Are you looking for a bank?” U: “Yeah” This example shows that “the nearest convenience store is the most frequently used by users. This indicates a case in which the operation instruction "Search for" is presented as the first operation instruction candidate, but a negative opinion is obtained from the user. Then, next, operation instruction candidates whose range is extended to those having the second highest use frequency are presented,
On the other hand, positive opinions have been obtained by users. As described above, by gradually expanding the range of the operation instruction candidates, the possibility of presenting the operation instruction candidates according to the intention of the user can be increased.

【0059】(具体例3) A:「コンビニ探すの?」 U:「ちがう」 A:「銀行探すの?」 U:「ちがう」 A:「渋滞情報見るの?」 U:「ちがう」 A:「何かしようか?」 U:「探す、レストラン」 この例では、利用者による使用頻度に応じて、使用頻度
の高いものから低いものへと段階的に範囲を広げて3つ
の操作指示候補(最寄りのコンビニを探す、最寄りの銀
行を探す、渋滞情報を見る)が提示され、いずれの操作
指示候補に対しても、利用者により否定的な見解が得ら
れた場合を示している。このように、音声処理装置10
側から提示される操作指示候補のいずれもが利用者の意
図に沿わない場合には、音声処理装置10は、上述した
「何かしようか?」といった音声出力を行い、それ以降
は、利用者の方から操作指示を与える従来の対話形式の
操作指示の入力動作に移行する。
(Specific Example 3) A: “Are you looking for a convenience store?” U: “Difference” A: “Did you look for a bank?” U: “Difference” A: “Did you see traffic jam information?” U: “Difference” A: U: “Look for a restaurant” In this example, in accordance with the frequency of use by the user, the range is gradually increased from the most frequently used to the least frequently used, and three operation instruction candidates ( Finding the nearest convenience store, Finding the nearest bank, Looking at traffic congestion information) is presented, indicating that the user has obtained a negative opinion on any of the operation instruction candidates. Thus, the audio processing device 10
If none of the operation instruction candidates presented from the side does not meet the user's intention, the voice processing device 10 performs the voice output such as "Do you want to do something?" The operation shifts to a conventional interactive operation instruction input operation of giving an operation instruction from the user.

【0060】このように、本実施形態のナビゲーション
装置では、利用者に対して、音声処理装置10から操作
指示候補が提示され、その操作指示候補に対する見解を
「うん」あるいは「ちがう」等の単純な言葉により入力
するだけで、ナビゲーション装置に対して与える操作内
容を設定することができるので、操作内容を設定するた
めに複数のコマンド等を覚える必要がなく、操作性を向
上させることができる。
As described above, in the navigation device according to the present embodiment, the operation instruction candidate is presented to the user from the voice processing device 10 and the opinion on the operation instruction candidate is simply expressed as "Yes" or "No". Since the operation content given to the navigation device can be set only by inputting in simple words, it is not necessary to memorize a plurality of commands or the like in order to set the operation content, and the operability can be improved.

【0061】また、コマンドやジャンルの使用頻度に対
応して選択確率を更新する所定の学習処理を行っている
ので、利用者が使用する頻度の高い操作内容ほど、次に
操作指示の提案を行う際に優先されるので、利用者の個
性を反映した提案を行うことができるという利点も有す
る。
Further, since a predetermined learning process for updating the selection probability in accordance with the frequency of use of the command or the genre is performed, the next operation instruction is proposed for the operation content which is more frequently used by the user. Since the priority is given to the user, there is also an advantage that a proposal reflecting the personality of the user can be made.

【0062】なお、本発明は上記実施形態に限定される
ものではなく、本発明の主旨の範囲内において種々の変
形実施が可能である。例えば、上述した実施形態では、
図6のステップ200〜201に示すように、各ジャン
ルに対応する施設に利用者が立ち寄ったか否かを判断す
る場合には、自車位置から所定距離以内に各ジャンルに
対応する施設が存在するという状態が所定時間以上継続
したことを判断条件としていたが、他の判断条件を用い
たり、複数の判断条件を併用するようにしてもよい。
The present invention is not limited to the above embodiment, and various modifications can be made within the scope of the present invention. For example, in the embodiment described above,
As shown in steps 200 to 201 in FIG. 6, when it is determined whether or not a user has stopped at a facility corresponding to each genre, facilities corresponding to each genre exist within a predetermined distance from the own vehicle position. Is determined to have continued for a predetermined time or more, but other determination conditions may be used, or a plurality of determination conditions may be used in combination.

【0063】具体的には、例えば、自車位置から所定距
離以内に所定の施設が存在する状態において、エンジン
がOFF状態にされ、再度ON状態にされたことをもっ
て施設へ立ち寄ったと判断してもよい。この場合には、
再度エンジンがON状態にされた時点で、利用者に対し
て、所定の学習処理を行うか否かを問い合わせればよ
い。
Specifically, for example, in a state where a predetermined facility exists within a predetermined distance from the position of the own vehicle, the engine is turned off, and it is determined that the engine has been turned on again, and it is determined that the vehicle has stopped at the facility. Good. In this case,
When the engine is turned on again, it is sufficient to ask the user whether or not to perform a predetermined learning process.

【0064】同様に、車両のウインカーやハザードラン
プの動作状態に基づいて、利用者の施設への立ち寄りを
判断してもよい。例えば、自車位置から所定距離以内に
所定の施設が存在する状態において、ウインカーが出さ
れ、またはハザードランプが点灯されたことを検出した
場合に、所定の学習処理を行うか否かを利用者に問い合
わせればよい。
Similarly, it may be determined whether or not the user has stopped at the facility based on the operation states of the turn signals and the hazard lamps of the vehicle. For example, in a state where a predetermined facility is present within a predetermined distance from the position of the own vehicle, when it is detected that a turn signal is emitted or a hazard lamp is turned on, the user determines whether to perform a predetermined learning process. You can contact.

【0065】また、車両が交差点以外の場所で進路変更
を行ったことを検出して、利用者の施設への立ち寄りを
判断してもよい。この場合には、ナビゲーションコント
ローラ1内のデータバッファ20に格納された地図デー
タに含まれる道路情報や交差点情報を取得し、車両位置
計算部30から自車位置および進行方向を取得すること
により、交差点以外の場所で進路変更を行ったか否かを
調べればよい。そして、交差点以外での進路変更を検出
した場合に、所定の学習処理を行うか否かを利用者に問
い合わせればよい。
Further, it may be detected that the vehicle has changed the course at a place other than the intersection, and it may be determined that the user has stopped at the facility. In this case, the road information and the intersection information included in the map data stored in the data buffer 20 in the navigation controller 1 are obtained, and the own vehicle position and the traveling direction are obtained from the vehicle position calculation unit 30. It is sufficient to check whether or not the course has been changed in a place other than. Then, when a course change other than at an intersection is detected, it is sufficient to ask the user whether or not to perform a predetermined learning process.

【0066】また、上述した図6のステップ203にお
いて説明したように、本実施形態では、所定の学習処理
を行うか否かについての指示は、音声認識ボタン62を
ダブルクリックすることにより行っていたが、これに限
定されるものではなく、音声入力により行ってもよく、
また、利用者からの指示を仰がずに自動的に行うように
してもよい。音声入力による場合では、学習処理部72
は、利用者の音声に対応して音声認識部64から出力さ
れる文字列を取得し、この文字列が「うん」等の肯定的
な言葉である場合に学習処理を行うようにすればよい。
As described above in step 203 of FIG. 6, in the present embodiment, an instruction as to whether or not to perform a predetermined learning process is made by double-clicking the speech recognition button 62. However, the present invention is not limited to this, and may be performed by voice input.
Further, the instruction from the user may be automatically performed without turning. In the case of voice input, the learning processing unit 72
May obtain a character string output from the voice recognition unit 64 in response to the voice of the user, and perform the learning process when the character string is a positive word such as “Yeah”. .

【0067】また、上述した実施形態では、提案提示部
68による操作指示候補の提示回数は3回に設定されて
いたが、これに限定されるものではなく、この回数は利
用者が任意に設定してよい。また、上述した実施形態で
は、本発明を適用した音声処理装置10を含んで構成さ
れる一実施形態のナビゲーション装置について詳細な説
明を行っていたが、これに限定されるものではなく、例
えば、音声処理装置10によってオーディオ装置等の他
の各種装置に対して操作指示を与えるようにしてもよ
い。
Further, in the above-described embodiment, the number of operation instruction candidate presentations by the suggestion presentation unit 68 is set to three, but the present invention is not limited to this, and this number can be arbitrarily set by the user. May do it. Further, in the above-described embodiment, the navigation device according to the embodiment including the voice processing device 10 to which the present invention is applied has been described in detail. However, the present invention is not limited thereto. The voice processing device 10 may give an operation instruction to various other devices such as an audio device.

【0068】[0068]

【発明の効果】上述したように、本発明によれば、次に
行う操作指示について提案がなされ、これに対して利用
者は、「うん」、「はい」、「ちがう」、「いいえ」等
の単純な言葉を発声して肯定的あるいは否定的な見解を
伝えるだけで、操作内容を設定することができるので、
操作内容を設定するために複数のコマンド等を覚える必
要がなく、操作性を向上させることができる。
As described above, according to the present invention, an operation instruction to be performed next is proposed, and in response to this, the user selects "Yes", "Yes", "No", "No", etc. Just say a simple word to tell a positive or negative opinion and set what you want to do.
There is no need to memorize a plurality of commands or the like in order to set the operation content, and operability can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】一実施形態の車載用ナビゲーション装置の構成
を示す図である。
FIG. 1 is a diagram illustrating a configuration of a vehicle-mounted navigation device according to an embodiment.

【図2】音声処理装置の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of an audio processing device.

【図3】コマンドの一例を示す図である。FIG. 3 is a diagram illustrating an example of a command.

【図4】各コマンド毎に設定されたジャンルの一例を示
す図である。
FIG. 4 is a diagram showing an example of a genre set for each command.

【図5】学習処理部の動作手順を示す流れ図である。FIG. 5 is a flowchart showing an operation procedure of a learning processing unit.

【図6】各種の施設に立ち寄った場合の学習処理部の動
作手順を示す流れ図である。
FIG. 6 is a flowchart showing an operation procedure of a learning processing unit when stopping at various facilities.

【図7】音声処理装置の動作手順を示す流れ図である。FIG. 7 is a flowchart showing an operation procedure of the audio processing device.

【符号の説明】[Explanation of symbols]

1 ナビゲーションコントローラ 4 操作部 5 GPS受信機 6 自律航法センサ 9 ディスプレイ装置 10 音声処理装置 11 メモリ 12 スピーカ 20 データバッファ 24 地図描画部 30 車両位置計算部 40 入力処理部 46 VICS情報描画部 60 マイクロホン 62 音声認識ボタン 64 音声認識部 66 音声認識辞書格納部 68 提案提示部 70 操作内容設定部 72 学習処理部 Reference Signs List 1 navigation controller 4 operation unit 5 GPS receiver 6 autonomous navigation sensor 9 display device 10 sound processing device 11 memory 12 speaker 20 data buffer 24 map drawing unit 30 vehicle position calculation unit 40 input processing unit 46 VICS information drawing unit 60 microphone 62 sound Recognition button 64 Speech recognition unit 66 Speech recognition dictionary storage unit 68 Suggestion presentation unit 70 Operation setting unit 72 Learning processing unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06N 3/00 550 G08G 1/0969 9A001 G08G 1/0969 G10L 3/00 571T G10L 13/00 Q 15/00 551Q 15/28 Fターム(参考) 2F029 AA02 AB09 AC02 AC08 AC14 AC18 AD04 AD07 5D015 KK01 LL11 5D045 AB17 5E501 AA22 AC03 BA05 CA04 CA06 CB15 DA17 EA21 FA05 FA14 FA32 FA45 5H180 BB04 BB13 BB20 FF04 FF05 FF22 FF25 9A001 CC01 HH17 HH34 JJ11 JJ77──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06N 3/00 550 G08G 1/0969 9A001 G08G 1/0969 G10L 3/00 571T G10L 13/00 Q 15/00 551Q 15/28 F term (reference) 2F029 AA02 AB09 AC02 AC08 AC14 AC18 AD04 AD07 5D015 KK01 LL11 5D045 AB17 5E501 AA22 AC03 BA05 CA04 CA06 CB15 DA17 EA21 FA05 FA14 FA32 FA45 5H180 BB04 BB13 BB20 FF04 FF20 FF20 FF20 FF20 FF20H

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 利用者が次に行う操作指示について提案
を行う提案提示手段と、 前記提案提示手段によって提示された提案に対して、利
用者による肯定的あるいは否定的な見解が音声によって
示されたときに、この音声に対して音声認識処理を行う
音声認識処理手段と、 前記音声認識処理手段による認識結果が肯定的な見解を
示すものである場合に、この見解に対応する前記提案に
基づいて、操作対象装置に対する操作内容を設定する操
作内容設定手段と、 を備えることを特徴とする音声処理装置。
1. A proposal presenting means for making a proposal for an operation instruction to be performed next by a user, and a positive or negative opinion by the user is shown by voice with respect to the proposal presented by the proposal presenting means. And a voice recognition processing means for performing a voice recognition process on the voice, based on the suggestion corresponding to the opinion, when the recognition result by the voice recognition processing means indicates a positive opinion. And an operation content setting means for setting the operation content for the operation target device.
【請求項2】 請求項1において、 前記操作内容設定手段によって設定される前記操作内容
を学習する学習手段をさらに備えることを特徴とする音
声処理装置。
2. The voice processing device according to claim 1, further comprising a learning unit that learns the operation content set by the operation content setting unit.
【請求項3】 請求項1または2において、 前記提案提示手段は、前記音声認識処理手段による認識
結果が否定的な見解を示すものである場合に、提示内容
の範囲を広くした次の提案を行うことを特徴とする音声
処理装置。
3. The proposal according to claim 1, wherein the suggestion presenting means, when the recognition result by the speech recognition processing means indicates a negative opinion, proposes a next proposal having a wider range of presentation contents. An audio processing device characterized by performing.
【請求項4】 所定のナビゲーション動作を行うナビゲ
ーション処理手段と、 利用者が次に行う操作指示について提案を行う提案提示
手段と、 前記提案提示手段によって提示された提案に対して、利
用者による肯定的あるいは否定的な見解が音声によって
示されたときに、この音声に対して音声認識処理を行う
音声認識処理手段と、 前記音声認識処理手段による認識結果が肯定的な見解を
示すものである場合に、この見解に対応する前記提案に
基づいて、前記ナビゲーション処理手段に対する操作内
容を設定する操作内容設定手段と、 を備え、前記提案提示手段は、前記音声認識処理手段に
よる認識結果が否定的な見解を示すものである場合に、
提示内容の範囲を広くした次の提案を行うことを特徴と
するナビゲーション装置。
4. A navigation processing means for performing a predetermined navigation operation, a suggestion presentation means for making a proposal for an operation instruction to be performed next by the user, and an affirmation by the user for the proposal presented by the proposal presentation means. A voice recognition processing unit that performs voice recognition processing on the voice when a positive or negative opinion is indicated by the voice, and a recognition result by the voice recognition processing unit indicates a positive opinion Further comprising: operation content setting means for setting an operation content for the navigation processing means based on the proposal corresponding to this opinion, wherein the suggestion presentation means has a negative recognition result by the voice recognition processing means. If it is an opinion,
A navigation device characterized by making the following proposal with a wider range of contents to be presented.
JP2000122262A 2000-04-24 2000-04-24 Voice processor and navigation device Pending JP2001306089A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000122262A JP2001306089A (en) 2000-04-24 2000-04-24 Voice processor and navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000122262A JP2001306089A (en) 2000-04-24 2000-04-24 Voice processor and navigation device

Publications (1)

Publication Number Publication Date
JP2001306089A true JP2001306089A (en) 2001-11-02

Family

ID=18632760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000122262A Pending JP2001306089A (en) 2000-04-24 2000-04-24 Voice processor and navigation device

Country Status (1)

Country Link
JP (1) JP2001306089A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355003A (en) * 2003-05-27 2004-12-16 Microsoft Corp System and method for user modelling to enhance named entity recognition
JP2008238861A (en) * 2007-03-26 2008-10-09 Denso Corp Start controlling device for on-board equipment
WO2018073907A1 (en) * 2016-10-19 2018-04-26 三菱電機株式会社 Speech recognition device and speech recognition method
JP2021012545A (en) * 2019-07-05 2021-02-04 東芝映像ソリューション株式会社 Electronic apparatus, program and selection method of search service

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1183531A (en) * 1997-09-12 1999-03-26 Nippon Telegr & Teleph Corp <Ntt> Information provision apparatus and recording medium with recorded information provision program
JPH11149482A (en) * 1997-11-19 1999-06-02 Nec Corp Natural language interactive system
JPH11160088A (en) * 1997-11-26 1999-06-18 Fujitsu Ten Ltd Navigation system
JPH11201771A (en) * 1998-01-08 1999-07-30 Nissan Motor Co Ltd Navigation device
JPH11327590A (en) * 1998-05-15 1999-11-26 Nissan Motor Co Ltd Voice input device
JP2000088597A (en) * 1998-09-09 2000-03-31 Equos Research Co Ltd Destination setting apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1183531A (en) * 1997-09-12 1999-03-26 Nippon Telegr & Teleph Corp <Ntt> Information provision apparatus and recording medium with recorded information provision program
JPH11149482A (en) * 1997-11-19 1999-06-02 Nec Corp Natural language interactive system
JPH11160088A (en) * 1997-11-26 1999-06-18 Fujitsu Ten Ltd Navigation system
JPH11201771A (en) * 1998-01-08 1999-07-30 Nissan Motor Co Ltd Navigation device
JPH11327590A (en) * 1998-05-15 1999-11-26 Nissan Motor Co Ltd Voice input device
JP2000088597A (en) * 1998-09-09 2000-03-31 Equos Research Co Ltd Destination setting apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004355003A (en) * 2003-05-27 2004-12-16 Microsoft Corp System and method for user modelling to enhance named entity recognition
JP2008238861A (en) * 2007-03-26 2008-10-09 Denso Corp Start controlling device for on-board equipment
WO2018073907A1 (en) * 2016-10-19 2018-04-26 三菱電機株式会社 Speech recognition device and speech recognition method
JPWO2018073907A1 (en) * 2016-10-19 2019-03-28 三菱電機株式会社 Speech recognition apparatus and speech recognition method
JP2021012545A (en) * 2019-07-05 2021-02-04 東芝映像ソリューション株式会社 Electronic apparatus, program and selection method of search service
JP7227093B2 (en) 2019-07-05 2023-02-21 Tvs Regza株式会社 How to select electronic devices, programs and search services

Similar Documents

Publication Publication Date Title
US9430945B2 (en) System and method for providing route calculation and information to a vehicle
US8903651B2 (en) Information terminal, server device, searching system, and searching method thereof
JP2003329477A (en) Navigation device and interactive information providing program
RU2425329C2 (en) Navigation device and method of receiving and reproducing audio images
WO2003078930A1 (en) Vehicular navigation device
US20070156331A1 (en) Navigation device
JPH11201770A (en) Navigation device
JP2002156241A (en) Navigation apparatus and recording medium with program recorded thereon
JP2003014485A (en) Navigation device
JP4258890B2 (en) Voice recognition device and navigation system using the device
JP4108016B2 (en) Navigation device and screen display method when vehicle is stopped in navigation device
JP4237026B2 (en) In-vehicle navigation device and input method to the device
JP4580230B2 (en) Navigation device
JP2001306089A (en) Voice processor and navigation device
JP2001027540A (en) Navigation method to use function of voice recognition
JP4869642B2 (en) Voice recognition apparatus and vehicular travel guidance apparatus including the same
JPH08202386A (en) Speech recognizing method, speech recognizing device and navigation device
JP3818352B2 (en) Navigation device and storage medium
JP2002039779A (en) Navigation system
JP2006010509A (en) Navigation system
JP3500948B2 (en) Voice recognition device
JP2002215186A (en) Speech recognition system
JP2007065206A (en) Institution retrieval system
JP3791205B2 (en) Vehicle communication system
JPWO2006028171A1 (en) Data presentation apparatus, data presentation method, data presentation program, and recording medium recording the program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070522